Conclusiones clave
- Una nueva investigación sugiere que es posible que no haya forma de controlar la inteligencia artificial superinteligente.
- Un artículo de revista argumenta que controlar la IA requeriría una tecnología mucho más avanzada de la que poseemos actualmente.
- Algunos expertos dicen que la inteligencia artificial verdaderamente inteligente podría estar aquí antes de lo que pensamos.
Si los humanos alguna vez desarrollan una inteligencia artificial superinteligente, es posible que no haya forma de controlarla, dicen los científicos.
La IA se ha promocionado durante mucho tiempo como una cura para todos los problemas de la humanidad o como un apocalipsis al estilo Terminator. Sin embargo, hasta ahora, la IA no se ha acercado ni siquiera a la inteligencia a nivel humano. Pero controlar la inteligencia artificial avanzada podría ser un problema demasiado complejo para los humanos si alguna vez se desarrolla, según un artículo reciente publicado en el Journal of Artificial Intelligence Research.
"Una máquina superinteligente que controla el mundo suena a ciencia ficción", dijo Manuel Cebrián, uno de los coautores del artículo, en un comunicado de prensa.
"Pero ya existen máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría volverse incontrolable y peligroso para la humanidad en algún momento".
Próximamente en una supercomputadora cerca de usted
El artículo de la revista argumenta que controlar la IA requeriría una tecnología mucho más avanzada de la que poseemos actualmente.
En su estudio, el equipo concibió un algoritmo de contención teórico que garantiza que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndola si se considera dañina. Pero los autores encontraron que tal algoritmo no se puede construir.
"Si descompones el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordena a una IA que no destruya el mundo podría detener inadvertidamente sus propias operaciones". Iyad Rahwan, director del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano en Alemania, en el comunicado de prensa.
"Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención quede inutilizable".
La IA verdaderamente inteligente puede estar aquí antes de lo que pensamos, argumenta Michalis Vazirgiannis, profesor de informática en la École Polytechnique de Francia. "La IA es un artefacto humano, pero se está convirtiendo rápidamente en una entidad autónoma", dijo en un correo electrónico a Lifewire.
"El punto crítico será si/cuando ocurra la singularidad (es decir, cuando los agentes de IA tengan conciencia como una entidad) y, por lo tanto, reclamarán independencia, autocontrol y eventual dominio".
Llega la singularidad
Vazirgiannis no es el único que predice la inminente llegada de la súper IA. A los verdaderos creyentes en la amenaza de la IA les gusta hablar de la "singularidad", que Vazirgiannis explica que es el punto de que la IA reemplazará a la inteligencia humana y "que los algoritmos de la IA potencialmente se darán cuenta de su existencia y comenzarán a comportarse de manera egoísta y cooperativa".
Según Ray Kurzweil, director de ingeniería de Google, la singularidad llegará antes de mediados del siglo XXI. "2029 es la fecha consistente que he predicho cuando una IA pasará una prueba de Turing válida y, por lo tanto, alcanzará los niveles humanos de inteligencia", dijo Kurzweil a Futurism.
Si no podemos limpiar nuestra propia casa, ¿qué código se supone que debemos pedirle a la IA que siga?
"He fijado la fecha 2045 para la 'Singularidad', que es cuando multiplicaremos nuestra inteligencia efectiva mil millones al fusionarnos con la inteligencia que hemos creado".
Pero no todos los expertos en inteligencia artificial piensan que las máquinas inteligentes son una amenaza. Es más probable que la IA que está en desarrollo sea útil para el desarrollo de fármacos y no muestra ninguna inteligencia real, dijo el consultor de IA Emmanuel Maggiori en una entrevista por correo electrónico. "Hay una gran expectación en torno a la IA, lo que hace que suene como si fuera realmente revolucionaria", agregó. "Los sistemas de IA actuales no son tan precisos como se anuncia y cometen errores que un humano nunca cometería".
Toma el control de la IA, ahora
Regular la IA para que no escape a nuestro control puede ser difícil, dice Vazirgiannis. Las empresas, en lugar de los gobiernos, controlan los recursos que impulsan la IA. "Incluso los propios algoritmos suelen producirse y desplegarse en los laboratorios de investigación de estas entidades grandes y poderosas, generalmente multinacionales", dijo.
"Es evidente, por lo tanto, que los gobiernos de los estados tienen cada vez menos control sobre los recursos necesarios para controlar la IA".
Algunos expertos dicen que para controlar la IA superinteligente, los humanos necesitarán administrar los recursos informáticos y la energía eléctrica. "Películas de ciencia ficción como The Matrix hacen profecías sobre un futuro distópico en el que la IA utiliza a los humanos como fuentes de bioenergía", dijo Vazirgiannis.
"A pesar de las imposibilidades remotas, la humanidad debe asegurarse de que haya suficiente control sobre los recursos informáticos (es decir, grupos de computadoras, GPU, supercomputadoras, redes/comunicaciones) y, por supuesto, las plantas de energía que proporcionan electricidad, que es absolutamente perjudicial para la función de la IA".
El problema con el control de la IA es que los investigadores no siempre entienden cómo esos sistemas toman sus decisiones, dijo Michael Berthold, cofundador y director ejecutivo de la firma de software de ciencia de datos KNIME, en una entrevista por correo electrónico. "Si no hacemos eso, ¿cómo podemos 'controlarlo'?"
Agregó: "No entendemos cuándo se toma una decisión totalmente diferente en función de, para nosotros, aportes irrelevantes".
La única forma de controlar el riesgo de usar IA es asegurarse de que solo se use cuando ese riesgo sea manejable, dijo Berthold. "Dicho de otra manera, dos ejemplos extremos: no ponga a la IA a cargo de su planta de energía nuclear donde un pequeño error puede tener efectos secundarios catastróficos", agregó.
"Por otro lado, la IA predice que si la temperatura de la habitación debe subir o bajar un poco, puede valer la pena el pequeño riesgo en beneficio de la comodidad de vida".
Si no podemos controlar la IA, será mejor que le enseñemos modales, dijo el exingeniero informático de la NASA Peter Scott en una entrevista por correo electrónico. "En última instancia, no podemos garantizar la controlabilidad de la IA más de lo que podemos garantizar la de nuestros hijos", dijo.
"Los criamos bien y esperamos lo mejor; hasta ahora, no han destruido el mundo. Para criarlos bien, necesitamos una mejor comprensión de la ética; si no podemos limpiar nuestra propia casa, ¿qué ¿Qué código se supone que debemos pedirle a la IA que siga?"
Pero no se pierde toda esperanza para la raza humana, dice el investigador de IA Yonatan Wexler, vicepresidente ejecutivo de I+D de OrCam. "Si bien los avances son realmente impresionantes, mi creencia personal es que la inteligencia humana no debe subestimarse", dijo en una entrevista por correo electrónico. "Nosotros, como especie, hemos creado cosas bastante asombrosas, incluida la propia IA".
La búsqueda de una IA cada vez más inteligente continúa. Pero sería mejor considerar cómo controlamos nuestras creaciones antes de que sea demasiado tarde.