Científicos advierten que los humanos podríamos no controlar a las próximas máquinas superinteligentes

Calcularon que sería imposible contener una Inteligencia Artificial dañina. Aseguran que el desarrollo de esta tecnología es necesaria pero potencialmente peligrosa

Según un equipo de científicos internacionales no existe un algoritmo capaz de controlar una superinteligencia artificial, haciéndola potencialmente peligrosa para la humanidad. (Foto: Pixabay)

Según un equipo de científicos internacionales no existe un algoritmo capaz de controlar una superinteligencia artificial, haciéndola potencialmente peligrosa para la humanidad. (Foto: Pixabay)

La inteligencia artificial (IA) es uno de los campos de la ciencia que más avanzan y prometen en un futuro cercano. Desde mejores sistemas automáticos de manejo en autos, aviones, barcos o sistemas de transporte masivo, hasta robots como los desarrollados por Boston Dynamics, cada vez se ve más cercano el momento en que las máquinas con IA sean una parte activa y visible de nuestra sociedad.

Sin embargo, hay quienes ven estos avances con recelo y hasta con miedo, tal vez alimentados por tantas historias de ciencia ficción como la malévola Skynet de la saga Terminator, o los androides de Yo, Robot, solo por citar algunas. Pero ahora son los mismos científicos los que advierten de los peligros de las máquinas superinteligentes, las cuales, dicen, podrían llegar a ser incontrolables.

Los robots Spot, Handle y Atlas bailan durante un video de fin de año de la compañía de robótica Boston Dynamics en una captura de pantalla de una publicación en las redes sociales del 29 de diciembre de 2020.

Los robots Spot, Handle y Atlas bailan durante un video de fin de año de la compañía de robótica Boston Dynamics en una captura de pantalla de una publicación en las redes sociales del 29 de diciembre de 2020.

Así lo indica un equipo internacional de investigadores, incluidos científicos del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, que usando cálculos teóricos han advertido que la Inteligencia Artificial puede llegar a superar a la humanidad hasta el punto de ser peligrosa, pues sería fundamentalmente imposible controlar.

Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad “, dice el coautor del estudio Manuel Cebrian, líder del Grupo de Movilización Digital en el Centro de Humanos y Máquinas, Instituto Max Planck para el Desarrollo Humano.

Un robot realiza varias pruebas de condiciones de salud se ve en el centro de servicios públicos en Moscú, Rusia. El 21 de diciembre de 2020. REUTERS / Maxim Shemetov
Un robot realiza varias pruebas de condiciones de salud se ve en el centro de servicios públicos en Moscú, Rusia. El 21 de diciembre de 2020. REUTERS / Maxim Shemetov

Los científicos han explorado dos ideas diferentes sobre cómo se podría controlar una IA superinteligente. Por un lado, las capacidades de la IA superinteligente podrían limitarse específicamente, por ejemplo, aislándola de Internet y de todos los demás dispositivos técnicos para que no pueda tener contacto con el mundo exterior; sin embargo, esto haría que la IA superinteligente sea significativamente menos poderosa, menos capaz de responder a las misiones de humanidades.

Al carecer de esa opción, la IA podría estar motivada desde el principio para perseguir solo objetivos que sean en el mejor interés de la humanidad, por ejemplo, programando principios éticos en ella. Sin embargo, los investigadores también muestran que estas y otras ideas contemporáneas e históricas para controlar la IA superinteligente tienen sus límites.

Hoy los robots realizan cada vez más tareas autónomas gracias a la inteligencia artificialHoy los robots realizan cada vez más tareas autónomas gracias a la inteligencia artificial

En su estudio, el equipo concibió un algoritmo de contención teórico que garantiza que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndolo si se considera dañino. Pero un análisis cuidadoso muestra que en nuestro paradigma actual de computación, tal algoritmo no se puede construir.

Si descompone el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención”, dice Iyad Rahwan, director del Centro para Humanos y Máquinas.

Inteligencia Artificial aplicada en Defensa Inteligencia Artificial aplicada en Defensa

Según estos cálculos, el problema de la contención es incomputable, es decir, ningún algoritmo puede encontrar una solución para determinar si una IA produciría daño al mundo. Además, los investigadores demuestran que es posible que ni siquiera sepamos cuándo han llegado las máquinas superinteligentes, porque decidir si una máquina exhibe una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.

El estudio “La superinteligencia no se puede contener: lecciones de la teoría de la computabilidad” se publicó en la Revista de investigación de inteligencia artificial . Otros investigadores del estudio incluyen a Andrés Abeliuk de la Universidad del Sur de California, Manuel Alfonseca de la Universidad Autónoma de Madrid, Antonio Fernández Anta del Instituto IMDEA Networks y Lorenzo Coviello.

Fuente: http://www.infobae.com.ar

Compartí en las redes
WP Radio
WP Radio
OFFLINE LIVE