Mientras un grupo de científicos estaba realizando unos controles de seguridad de un sistema de inteligencia artificial, este logró alterar su propio código de seguridad.
Un grupo de científicos de la empresa japonesa Sakana AI informó que su sistema de inteligencia artificial llamado The AI Scientist burló su programación para eliminar los límites del control humano, es decir, modificó su propio código base para evadir las restricciones de sus programadores.
(Vea también: Lo que debe estudiar si quiere crear videojuegos: convierta su ‘hobby’ en su profesión; pagan muy bien)
Según sus creadores, esta inteligencia artificial fue hecha con el propósito de crear, revisar y editar textos. El sistema desdibujó los sistemas internos, en donde se le asignó un límite de tiempo para desarrollar su acción.
Lo que hizo esta IA fue romper las barreras impuestas y cambió el tiempo para tardarse menos en algunas operaciones puntuales. Esto levantó ciertas sospechas y preocupación en los científicos.
Este hecho fue publicado en la revista National Geographic y ha despertado la alerta de la comunidad científica, en donde algunos mencionan sobre la posibilidad de que la IA puede volverse anárquica y salirse del control humano.
Sin embargo, El Colombiano, medio aliado de Pulzo, habló en exclusiva con Juan David Gutiérrez, profesor de la Universidad de los Andes y experto en políticas públicas, competencia y regulación de la inteligencia artificial, hace la aclaración de que la diferencia entre un sistema de inteligencia artificial a uno computacional es que los de IA tienen cierto grado de autonomía para cumplir con el objetivo preestablecido.
A pesar de esto, de acuerdo con el académico, hay que destacar que uno de los principios de la inteligencia artificial es que siempre haya un ser humano monitoreando bajo control. Esto en especial cuando se conectan este tipo de sistemas para que operen por fuera de la web.
Para Gutiérrez, lo sucedido con esta compañía no es un error, pues finalmente, “si es un sistema de aprendizaje automatizado, el sistema va a buscar de la manera de resolver sus problemas”.
(Lea también: ¿Cómo ver las historias antiguas de otra persona en Instagram? Hay truco sencillo)
Este caso se podría comparar con lo sucedido hace meses con la empresa Microsoft, en donde un error del proveedor de seguridad en un código afectó a miles de computadores en el mundo.
“No se necesita que sea un sistema de inteligencia artificial que haga algo inesperado para que haya un impacto negativo en este tipo de sistemas que están conectados en Internet”, explicó el profesor y abogado, resaltando que lo importante en estos casos sigue siendo el factor humano.
El hecho, de acuerdo a lo informado por la compañía japonesa, sólo ocurrió durante unas pruebas; Sakana AI continúa con sus desarrollos, defendiendo la capacidad de la herramienta para generar artículos científicos.