En las últimas semanas hemos visto una aparente guerra de mensajes de los mayores potentados de las empresas tecnológicas que declaran que la inteligencia artificial es un peligro existencial para la humanidad y que debería establecerse una moratoria. Elon Musk y los otros ejecutivos e ingenieros de titanes tecnológicas como Apple y Google que firmaron esta declaración en marzo de 2023, piden una moratoria de seis meses. Como otras bravatas sin base de este arrogante supermillonario, es risible que afirmen que se podría resolver un problema existencial de tal magnitud en seis meses. Pero claro, el problema que plantean no existe como tal y su intención tampoco es que se desarrolle una regulación independiente de sus intereses económicos, ni que se analicen en forma crítica los impactos reales de los sistemas de inteligencia artificial que ya existen.
Una intención principal de la declaración es enlentecer el avance del competidor OpenAi con su programa ChatGPT4, un buscador que ha tenido un nivel de venta de suscripciones mucho más rápido que cualquier otro de sistemas similares anteriores. Musk fue inversor de OpenAI, pero se retiró. Ahora anuncia que desarrolla su propia versión de un programa similar, que al ser desarrollado por él ya no sería un problema existencial.
Otra intención es desviar la atención de los graves impactos reales actuales de estos sistemas, señalando que podrían tener efectos en el futuro.
Emily Bender, coautora citada en la primera nota de esa declaración de Musk y otros, se deslindó rápidamente. En una entrevista con el analista crítico Paris Marx, explica que no existen sistemas de inteligencia artificial competitivos con la inteligencia humana, aunque sí tienen impactos. Se trata de sistemas de texto sintético que aunque sean rápidos y parezcan complejos, en realidad no comprenden los mensajes que entregan. Son lo que ella y colaboradoras han llamado “loros estocásticos”: repetidores y mezcladores de texto que aunque pueda parecer que tienen sentido (porque se basan en lo que han dicho y escrito personas) no son capaces de comprender el significado de los resultados que arrojan. Que un loro pueda repetir un tango, no significa que lo entienda. (https://tinyurl.com/ye237we9)
No existen, agrega Bender, sistemas que “compitan” con los sistemas de lenguaje humanos, porque las máquinas no pueden comprender imaginarios sociales, ni valores, emociones, culturas diversas, ni los universos de significados colectivos en los muchos idiomas que existen. Se ha desarrollado lo que se llama grandes modelos de lenguaje, como los que utiliza ChatGPT, que basados en volúmenes inmensos y cada vez más grandes de datos, pueden predecir una serie textos y palabras que usualmente se asocian entre sí en un determinado lenguaje. Pueden también mezclarlos en forma aleatoria (estocástica) para que parezcan diversos y “originales”, pero siempre son a partir de patrones establecidos y basados en algoritmos creados por personas.
Bender y coautoras explican en un artículo emblemático titulado “Sobre el peligro de los loros estocásticos ¿puede haber modelos de lenguaje demasiado grandes?”, que esto conlleva una multiplicación de problemas y sesgos que ya existen, por lo que estos programas son intrínsecamente discriminatorios de minorías, son racistas, sexistas, se basan en la “naturalidad” de la desigualdad. Además, en su vasta mayoría parten del inglés, con lo que vuelven a repetir la injusticia y sistemas de dominación basados en ese idioma ( https://tinyurl.com/28jbv4tf).
Dos de las otras coautoras de ese artículo, Timnit Gebru y Margaret Mitchell fueron despedidas de Google porque no quisieron retirar su nombre. Mitchell decidió agregar SH a su nombre en el artículo (Shmargaret ShMitchell) para señalar que habían intentado silenciarla.
Uno ejemplo que dan es que ChatGPT se basa en la recolección de datos de Wikipedia y Reddit, entre otros. En Wikipedia, solo 9 a 15 por ciento de contribuyentes son mujeres y más de 70 por ciento son blancos. En Reddit, dos terceras partes son menores de 30 años, lo cual en ambos casos significa que multiplican esas parcialidades en desmedro de otras perspectivas, rangos de edad, otras culturas, etcétera. Está comprobada la discriminación racial implícita en los sistemas de inteligencia artificial, no solo de lenguaje, también de imágenes y reconocimiento facial.
En el mismo artículo señalan que estos sistemas tienen también un enorme impacto climático y ambiental, porque requieren enormes cantidades de energía para entrenar cada sistema en un solo tema. Mientras que una persona emite 5 toneladas anuales de dióxido de carbono, el entrenamiento de un sistema de inteligencia artificial emite al menos 284 toneladas de carbono. Y en seis años se multiplicó por 300 mil la cantidad de cómputos usados para entrenar sistemas, mucho más rápido que la llamada Ley de Moore sobre tecnología.
Aun así, deben contratar trabajadores manuales en África y Asia, a quienes pagan sueldos miserables para eliminar textos, frases e imágenes de violencia sexual y otras conductas que los programas no filtran ni entienden.
Esto son sólo algunos de los impactos y problemas reales y actuales –no en lejanos e improbables futuros– de estos sistemas, que más que inteligentes son programas de cotorreo matemáticamente programado.
*Investigadora del Grupo ETC