Oscura realidad detrás de OpenAI y ChatGPT
Autor: Alberto Beltrán
ChatGPT fue aclamado como una de las innovaciones tecnológicas más impresionantes de 2022 tras su lanzamiento en noviembre pasado. El poderoso chatbot de inteligencia artificial (IA) puede generar texto sobre casi cualquier tema. En una semana, tenía más de un millón de usuarios.
Según los informes, la empresa detrás de ChatGPT, OpenAI, ahora está en conversaciones con inversores para recaudar fondos a una valoración de $29 mil millones. Eso convertiría a OpenAI, que se fundó en San Francisco en 2015 con el objetivo de ser una empresa nonprofit, en una de las empresas de IA más valiosas del mundo.
Pero no todo es miel sobre ojuelas, una investigación reciente de TIME reveló que OpenAI empleó a un equipo de trabajadores de Kenia al que se le pagaba menos de $2 dólares por hora. Lo que destaca más es que los empleados, con la misión de hacer menos tóxica la IA, estuvieron expuestos a lo peor que el internet tiene que ofrecer, incluyendo la dark web.
La premisa era simple: crear un detector con IA de violencia, discursos de odio y abuso sexual que pudiese identificar dicho, de otra forma habría tardado hasta una década, así se empleara un equipo de cientos de humanos.
Para hacerlo posible, OpenAI envió decenas de miles de fragmentos de texto a una empresa de subcontratación en Kenia a partir de noviembre de 2021. Gran parte de ese texto parecía haber sido extraído de los rincones más oscuros de Internet. Algunas describían situaciones con detalles gráficosmcomo abuso sexual infantil, bestialidad, asesinato, suicidio, tortura, autolesiones e incesto.
El trabajo fue vital para OpenAI. El predecesor de ChatGPT, GPT-3, ya había demostrado una capacidad impresionante para unir oraciones.
Pero tuvo muchas dificultades, ya que la aplicación también era propensa a soltar comentarios violentos, sexistas y racistas.
Los trabajadores fueron empleados por el socio de outsourcing de OpenAI, Sama, una compañía de training-data ubicada en San Francisco, que emplea trabajadores de Kenia, Uganda e India, y se proclama así misma como una compañía ética de IA que ha ayudado a más de 50,000 personas a salir de la pobreza.
Sama reportó que terminó su relación de negocios con OpenAI mucho antes de lo pactado inicialmente, dado que los empleados se quejaron del contenido que revisaban y luego de desarrollar graves problemas de salud mental, los cuales eran asistidos por profesionales y terapistas en salud mental brindados por la misma compañía.
Algunos trabajadores mencionaron a TIME que, después de revisar dichos artículos y rankearlos, solían tener visiones perturbadoras de manera constante.
Lo más alarmante del caso es que los inversionistas y ejecutivos de OpenAI sabían sobre esto, lo cual significa que ejecutivos clave de Microsoft y otros inversionistas detrás de OpenAI, sabían del caso, lo cual incluye a Elon Musk.
“Habrá momentos aterradores a medida que avanzamos hacia sistemas de nivel AGI e interrupciones significativas, pero las ventajas pueden ser tan sorprendentes que bien vale la pena superar los grandes desafíos para llegar allí”, escribió el CEO de OpenAI, Sam Altman, en un hilo de Twitter.