Conclusiones clave
- Un nuevo colectivo de desarrolladores está creando modelos de IA de código abierto.
- El grupo utiliza modelos masivos de aprendizaje de idiomas que lanzará bajo licencias abiertas.
- La IA de código abierto podría ayudar a que el poder potencialmente innovador de la nueva tecnología sea menos propenso a sesgos y errores.
Hay mucha investigación sobre inteligencia artificial por parte de grandes empresas (IA), pero un grupo en línea quiere democratizar el proceso.
EleutherAI es un colectivo recientemente formado de investigadores, ingenieros y desarrolladores voluntarios centrados en la investigación de IA de código abierto. La organización utiliza las bases de código GPT-Neo y GPT-NeoX para entrenar modelos de lenguaje masivo que planea lanzar bajo licencias abiertas.
"Los datos de fuente abierta benefician a los investigadores porque los científicos tienen más recursos gratuitos para entrenar modelos y completar la investigación", dijo a Lifewire Edward Cui, director ejecutivo de la empresa de inteligencia artificial Graviti, en una entrevista por correo electrónico. Su empresa no está involucrada en EueutherAI. "Sabemos que muchos proyectos de IA se vieron frenados por la f alta general de datos de alta calidad de casos de uso reales, por lo que es vital establecer una guía que garantice la calidad de los datos, con la ayuda de la comunidad participante".
Este es el camino
Los comienzos de EleutherAI fueron humildes. El año pasado, un investigador independiente de IA llamado Connor Leahy publicó el siguiente mensaje en un servidor de Discord: "Hola, chicos, [SIC] denle una oportunidad a OpenAI por su dinero como en los viejos tiempos".
Y así se formó el grupo. Ahora tiene cientos de colaboradores que publican su código en el repositorio de software en línea GitHub.
Los esfuerzos de IA de fuente abierta no son nuevos. De hecho, la plataforma de gestión de flujo de trabajo Airflow de Airbnb y el motor de descubrimiento de datos de Lyft son el resultado del uso de herramientas de código abierto para permitir que los equipos de datos trabajen mejor con los datos, señaló Ali Rehman, gerente de proyectos de la empresa de software CloudiTwins en una entrevista por correo electrónico con Lifewire..
"Así como la revolución del código abierto ha llevado a una transformación del desarrollo de software, también ha impulsado el desarrollo y la democratización de la ciencia de datos y la inteligencia artificial", dijo Rehman. "El código abierto se ha convertido en un facilitador fundamental de las soluciones de ciencia de datos empresariales, y la mayoría de los científicos de datos utilizan herramientas de código abierto".
Abriendo la puerta
El desarrollo de IA de código abierto podría ayudar a que el poder potencialmente innovador de la nueva tecnología sea menos propenso a sesgos y errores, argumentan algunos observadores.
La investigación de IA ahora ocurre principalmente al aire libre, con casi todas las empresas, laboratorios de investigación y universidades presentando sus resultados inmediatamente en publicaciones académicas, Kush Varshney, un investigador de IA de IBM, le dijo a Lifewire en una entrevista por correo electrónico.
"Esta comunidad abierta es esencial, ya que proporciona niveles mejorados de controles y equilibrios para garantizar que la IA se investigue, cree, implemente y aplique de manera responsable", agregó Varshney. "Esto es especialmente crítico en situaciones en las que estos sistemas pueden influir en las vidas de nuestros miembros más vulnerables de la sociedad. Esta apertura se aplica no solo al aprendizaje automático general y los algoritmos de aprendizaje profundo, sino también a los elementos de la IA confiable".
Rehman dijo que una de las diferencias fundamentales entre el software propietario y el de código abierto es la flexibilidad y la personalización. La investigación patentada de IA tendrá problemas con la seguridad, las actualizaciones y las optimizaciones.
"Esto se debe a que el enfoque basado en la comunidad de código abierto obtiene información valiosa de miles de expertos de la industria que identifican posibles vulnerabilidades de seguridad que luego se solucionan más rápidamente", agregó Rehman."El consenso de la comunidad significa que la calidad está garantizada y las nuevas oportunidades se identifican más fácilmente".
Otro problema es que la investigación de IA propietaria no será interoperable, lo que significa que no puede funcionar con varios formatos de datos y probablemente tendrá un bloqueo de proveedor, lo que impide que las empresas prueben el software antes de comprometerse con una solución. dijo Rehman.
Pero no todos los aspectos de la investigación de la IA deben ser de código abierto, Chris Kent, director ejecutivo de la empresa de IA médica Reveal Surgical, le dijo a Lifewire en una entrevista por correo electrónico. "Es importante proteger los incentivos económicos que impulsan el desarrollo comercial de aplicaciones clave de IA", dijo.
Sin embargo, la investigación sobre IA necesita un componente sólido de código abierto, dijo Kent. Agregó que el código abierto funciona para generar confianza y utilizar conjuntos de datos que no están o no deberían estar controlados por instituciones o empresas individuales.
"Un enfoque de código abierto es la mejor manera de identificar y compensar el sesgo subyacente que puede existir en los conjuntos de entrenamiento y conducirá a aplicaciones de IA más holísticas, creativas y confiables", dijo Kent.