Cómo la IA podría monitorear a sus peligrosos descendientes

Tabla de contenido:

Cómo la IA podría monitorear a sus peligrosos descendientes
Cómo la IA podría monitorear a sus peligrosos descendientes
Anonim

Conclusiones clave

  • Un nuevo artículo afirma que la inteligencia artificial puede determinar qué proyectos de investigación podrían necesitar más regulación que otros.
  • Es parte de un esfuerzo creciente para descubrir qué tipo de IA puede ser peligrosa.
  • Un experto dice que el verdadero peligro de la IA es que podría volver tontos a los humanos.

Image
Image

La inteligencia artificial (IA) ofrece muchos beneficios, pero también algunos peligros potenciales. Y ahora, los investigadores han propuesto un método para vigilar sus creaciones computarizadas.

Un equipo internacional dice en un nuevo artículo que la IA puede determinar qué tipos de proyectos de investigación podrían necesitar más regulación que otros. Los científicos utilizaron un modelo que combina conceptos de biología y matemáticas y es parte de un esfuerzo creciente para descubrir qué tipo de IA puede ser peligrosa.

"Por supuesto, aunque el uso peligroso de la IA en la 'ciencia ficción' puede surgir si así lo decidimos […], lo que hace que la IA sea peligrosa no es la IA en sí misma, sino [cómo la usamos]", Thierry Rayna, el presidente de Tecnología para el Cambio, en la École Polytechnique en Francia, le dijo a Lifewire en una entrevista por correo electrónico. "La implementación de la IA puede mejorar la competencia (por ejemplo, refuerza la relevancia de las habilidades y el conocimiento de los trabajadores/humanos) o destruir la competencia, es decir, la IA hace que las habilidades y el conocimiento existentes sean menos útiles u obsoletos".

Mantener las pestañas

Los autores del artículo reciente escribieron en una publicación que construyeron un modelo para simular competencias hipotéticas de IA. Ejecutaron la simulación cientos de veces para intentar predecir cómo podrían funcionar las carreras de IA en el mundo real.

"La variable que consideramos particularmente importante fue la "duración" de la carrera: el tiempo que nuestras carreras simuladas tardaron en alcanzar su objetivo (un producto de IA funcional)", escribieron los científicos. "Cuando las carreras de IA alcanzaron su objetivo rápidamente, descubrimos que los competidores que habíamos codificado para que siempre pasaran por alto las precauciones de seguridad siempre ganaban".

Por el contrario, los investigadores descubrieron que los proyectos de IA a largo plazo no eran tan peligrosos porque los ganadores no siempre eran aquellos que pasaban por alto la seguridad. "Dados estos hallazgos, será importante que los reguladores establezcan cuánto tiempo es probable que duren las diferentes carreras de IA, aplicando diferentes regulaciones en función de los plazos esperados", escribieron. "Nuestros hallazgos sugieren que una regla para todas las carreras de IA, desde los sprints hasta los maratones, conducirá a algunos resultados que están lejos de ser ideales".

David Zhao, director gerente de Coda Strategy, una empresa que consulta sobre IA, dijo en una entrevista por correo electrónico con Lifewire que identificar la IA peligrosa puede ser difícil. Los desafíos radican en el hecho de que los enfoques modernos de la IA adoptan un enfoque de aprendizaje profundo.

"Sabemos que el aprendizaje profundo produce mejores resultados en numerosos casos de uso, como la detección de imágenes o el reconocimiento de voz", dijo Zhao. "Sin embargo, es imposible que los humanos entiendan cómo funciona un algoritmo de aprendizaje profundo y cómo produce su resultado. Por lo tanto, es difícil saber si una IA que produce buenos resultados es peligrosa porque es imposible que los humanos entiendan lo que está pasando."

El software puede ser "peligroso" cuando se usa en sistemas críticos, que tienen vulnerabilidades que pueden ser explotadas por malos actores o producir resultados incorrectos, dijo Matt Shea, director de estrategia de la firma de inteligencia artificial MixMode, por correo electrónico. Agregó que la IA insegura también podría resultar en la clasificación incorrecta de los resultados, la pérdida de datos, el impacto económico o el daño físico.

"Con el software tradicional, los desarrolladores codifican algoritmos que pueden ser examinados por una persona para descubrir cómo tapar una vulnerabilidad o corregir un error mirando el código fuente", dijo Shea."Sin embargo, con la IA, una parte importante de la lógica se crea a partir de los datos mismos, codificada en estructuras de datos como redes neuronales y similares. Esto da como resultado sistemas que son "cajas negras" que no se pueden examinar para encontrar y corregir vulnerabilidades. como software normal."

¿Peligros más adelante?

Si bien la IA ha sido representada en películas como Terminator como una fuerza maligna que intenta destruir a la humanidad, los peligros reales pueden ser más prosaicos, dicen los expertos. Rayna, por ejemplo, sugiere que la IA podría volvernos más tontos.

“Puede privar a los humanos de entrenar sus cerebros y desarrollar experiencia”, dijo. “¿Cómo puedes convertirte en un experto en capital de riesgo si no pasas la mayor parte de tu tiempo leyendo aplicaciones de startups? Peor aún, la IA es notoriamente una "caja negra" y poco explicable. No saber por qué se tomó una decisión de IA en particular significa que habrá muy poco que aprender de ella, al igual que no puedes convertirte en un corredor experto conduciendo por el estadio en un Segway.”

Es difícil saber si una IA que está produciendo buenos resultados es peligrosa, porque es imposible que los humanos entiendan lo que está pasando.

Quizás la amenaza más inmediata de la IA es la posibilidad de que pueda proporcionar resultados sesgados, dijo Lyle Solomon, un abogado que escribe sobre las implicaciones legales de la IA, en una entrevista por correo electrónico.

"La IA puede ayudar a profundizar las divisiones sociales. La IA se construye esencialmente a partir de datos recopilados de seres humanos", agregó Solomon. "[Pero] a pesar de la gran cantidad de datos, contiene subconjuntos mínimos y no incluiría lo que todos piensan. Por lo tanto, los datos recopilados de comentarios, mensajes públicos, reseñas, etc., con sesgos inherentes, harán que la IA amplifique la discriminación y el odio".

Recomendado: