
A menudo se habla con entusiasmo de la inteligencia artificial como una tecnología importante que cambiará radicalmente nuestras vidas. El futuro de la medicina, la educación, la innovación y la forma en que trabajamos y nos divertimos dependen de ello. El antropólogo Andrey Smolyakov explica, en exclusiva para Unix Noticias, cómo detrás de los filtros divertidos de 'TikTok', los chats de 'ChatGPT' y los tráilers de películas generados hay industrias enteras que explotan a personas vulnerables, dañan el medio ambiente y aumentan la desigualdad global.
A primera vista, muchos modelos de inteligencia artificial (IA) parecen herramientas simples y convenientes. Sus desarrolladores insisten constantemente en la disponibilidad de IA para los usuarios finales y hablan mucho de la democratización de tecnologías que supuestamente hacen la vida más fácil y ayudan a algunas personas a ingresar al mercado laboral.
Al mismo tiempo, la realidad material para las personas que trabajan en la industria de la inteligencia artificial parece completamente diferente. A partir de 2024, el sector empleará a casi 100 millones de personas. Además de los especialistas en TI y desarrolladores altamente pagados, hay una capa de trabajadores "invisibles" que realizan trabajos manuales monótonos que ayudan a entrenar algoritmos de inteligencia artificial.
Su número real es difícil de estimar: los propios empleadores rara vez informan sobre el "microtrabajo". La situación se complica por la gran cantidad de plataformas y el trabajo frecuente a través de intermediarios. Sin embargo, una de las plataformas más grandes de 'Amazon' emplea al menos 40 mil personas. Y esto no es un fenómeno pasajero.
Estos trabajadores se llaman clickworkers, y son ellos quienes entrenan, educan y pulen productos como 'ChatGPT' y 'Dall-E' de 'OpenAI', 'Midjourney' de Elon Musk o Grok. Los clickworkers generalmente clasifican manualmente imágenes, matrices de texto, agregan etiquetas, verifican y moderan las "respuestas" de IA para verificar su aceptabilidad, etc. Estos trabajadores, creen los investigadores, son una necesidad estructural en el desarrollo de tecnologías de IA. Sin sus contribuciones, el rápido desarrollo de la industria de la inteligencia artificial simplemente no habría sido posible.
Por regla general, los modelos de IA se entrenan según el siguiente sistema: primero, procesan de forma independiente una serie de datos sin procesar (que, por cierto, a veces también deben recopilarse manualmente) y luego las personas reales ayudan a los algoritmos a lograr resultados más precisos. Esto requiere el procesamiento y etiquetado manual de los datos de entrada, la búsqueda de errores, la corrección de patrones de reconocimiento, etc.
Estas tareas suelen subcontratarse a agencias especiales, que a su vez encuentran clickworkers en países del Sur Global (por ejemplo, en Venezuela, Kenia o Filipinas) que están dispuestos a soportar bajos salarios y malas condiciones de trabajo. Las empresas de subcontratación a menudo se centran en buscar trabajadores en una posición social vulnerable: entre refugiados, desplazados internos o personas afectadas por crisis políticas o económicas.
La posición de estos trabajadores es tan vulnerable que algunos investigadores la llaman "esclavitud digital". Ante las críticas, muchas empresas de outsourcing (como 'Samasource', con la que trabaja 'OpenAI') incluso están intentando reposicionarse como "empleadores de IA éticos": prometen hacer sentir a los trabajadores como parte del producto final, pagar salarios decentes y, en general, tratar a los empleados con dignidad.
De hecho, es difícil decir qué hace que 'Samasource' sea ético. Los periodistas de 'Time' descubrieron que los clickworkers kenianos de la empresa filtraban manualmente contenido explícito, sexualizado y violento, incluidas descripciones detalladas y filmaciones de violencia contra niños y animales. No se les advirtió cuando fueron contratados que estarían expuestos a contenido mentalmente traumático. Dependiendo de la productividad, los trabajadores recibían sólo entre 1.30 y 2 dólares por hora. Por su mediación, 'Samasource' recibió más de $12 por hora de trabajo de 'OpenAi' por cada clickworker.
Éste está lejos de ser el único caso. 'Meta', la empresa propietaria de 'Facebook', 'Instagram' y 'WhatsApp', ha estado utilizando clickworkers kenianos para entrenar sus algoritmos de IA y moderar el contenido de sus productos. Al menos 140 trabajadores han sido diagnosticados con trastorno de estrés postraumático (TEPT) y Meta enfrenta tres demandas en Kenia por explotación y condiciones laborales abusivas.
La mayoría de los modelos de IA requieren grandes cantidades de datos para entrenarse. Digamos un archivo de fotografías para el reconocimiento de objetos y la generación de imágenes. O acceso a bibliotecas científicas para la revisión automatizada de la literatura.
Las empresas que desarrollan productos basados en IA a menudo afirman que solo utilizan datos abiertos que entran en la categoría de uso justo. El problema es que los datos abiertos claramente no fueron creados para entrenar algoritmos y su posterior uso comercial.. En su reciente demanda contra 'OpenAI', 'The New York Times' busca imponer restricciones a las corporaciones de IA. Hasta la prohibición de utilizar materiales para formación sin el consentimiento del autor, e incluso la destrucción de modelos y bibliotecas de datos que ya los contengan.
Los modelos generativos gráficos como 'Midjourney' hacen que este problema sea aún más agudo. Para crear "arte", estos productos de IA se entrenan con películas, fotografías o pinturas y luego imitan el estilo y la escritura únicos del autor. Recientemente se descubrió que 'Midjourney' plagiaba imágenes de películas de 'Marvel' que tenían derechos de autor y que legalmente no podrían haber sido incluidas en el conjunto de datos sin procesar en el que se entrenó el modelo.
Las grandes organizaciones disponen de numerosos recursos para litigar y proteger su trabajo del plagio. Los artistas de 'Marvel' (propiedad de 'Disney') también presentaron una demanda contra 'Stability' (los desarrolladores de 'Midjourney') por utilizar sus materiales en el entrenamiento del modelo. Mientras tanto, los autores, artistas y artistas independientes se sienten impotentes. Su trabajo se convierte en material para entrenar modelos generativos.
Cualquier obra de arte, ya sean fotografías, pinturas o música, es el resultado de un trabajo, en el que se invierten muchos recursos materiales e inmateriales. Durante años, los artistas independientes han podido competir con las grandes corporaciones gracias a su estilo único y su visión individual. La inteligencia artificial ya está cambiando esta situación. Aunque las "copias" generativas son significativamente inferiores en calidad, llenan el mercado con contenidos baratos y desplazan gradualmente a los artistas independientes. Hasta 300 millones de puestos de trabajo a tiempo completo podrían ser reemplazados por IA generativa para 2030.
Existe otro efecto secundario de la industria de la IA: el desarrollo de tecnologías tan intensivas en energía provoca daños significativos al medio ambiente. El entrenamiento de algoritmos modernos requiere enormes cantidades de datos. La formación de 'ChatGPT 3', por ejemplo, requirió electricidad equivalente al consumo anual de 130 familias estadounidenses promedio. El entrenamiento del modelo 'Hugging Face', comparativamente "económico", con equipos modernos produce alrededor de 50 toneladas de CO2, el equivalente a 60 vuelos entre Europa y los EE.UU. Y el entrenamiento 'ChatGPT 3' produce exactamente 10 veces más emisiones.
Hasta ahora, la participación comparativa de la IA en el consumo energético mundial es pequeña: solo el 2-3%. Sin embargo, debido al rápido ritmo de desarrollo de la industria en todo el mundo, es probable que la situación cambie en el futuro cercano. En 2023, la inversión en IA generativa se cuadriplicó y, en 2024, todo el sector creció un 80%. Según algunos pronósticos, los modelos de IA de 'Google' consumirán más energía que todo Irlanda en los próximos años.
Por supuesto, el mercado de la tecnología IA podría verse sacudido en cualquier momento. Algo similar ocurrió tras la aparición del chatbot chino 'DeepSeek': los mayores inversores estadounidenses perdieron alrededor de 100 mil millones de dólares y el valor de 'Nvidia', el mayor proveedor de microchips para todas las empresas líderes de IA, se desplomó en 600 mil millones. Sin embargo, los inversores siguen siendo optimistas y esperan obtener beneficios significativos invirtiendo en grandes empresas de IA.
La industria de la IA no solo requiere electricidad, sino también acceso ininterrumpido a la potencia de cálculo: sin el procesamiento rápido de enormes cantidades de datos, ni el entrenamiento ni el uso de la IA serían posibles. En este contexto, existe una demanda explosiva de centros de datos en todo el mundo. Para 2023, el entrenamiento y funcionamiento de algoritmos por sí solos generarán un aumento en la demanda de dicha infraestructura.
Los propios centros de datos necesitan constantemente materias primas críticas: cobalto, litio y docenas de otros minerales raros. Se extraen principalmente en países del Sur global, lo que provoca graves daños a la ecología local. Enormes volúmenes de desechos tóxicos se vierten al agua o a los vertederos, las ciudades quedan cubiertas de nubes de smog y polvo, y los trabajadores y residentes locales se enfrentan a graves intoxicaciones y otros efectos a largo plazo para la salud.
La industria minera del cobalto se concentra principalmente en el Congo, que representa entre el 60 y el 70% del suministro mundial. Una parte importante de la producción proviene de "pequeñas minas" donde no se respetan las normas de seguridad. A veces trabajan con las manos desnudas. Esto a menudo conduce a resultados fatales.
Los activistas de derechos humanos señalan que la extracción de cobalto contribuye al desarrollo de la esclavitud y al uso de trabajo infantil, y conduce a la destrucción de cultivos y animales. Las mujeres embarazadas y los niños corren un riesgo especial: las altas concentraciones de este mineral en el aire provocan enfermedades congénitas y deformidades corporales. Además, las empresas que desarrollan depósitos de cobalto a menudo están obligando al desplazamiento forzado de los residentes locales.
La industria de la IA, que aumenta la demanda de cobalto, no hace más que agravar estos problemas.
Sin duda, los modelos de IA más populares tienen un lado oscuro. Aumentan la demanda de mano de obra mal pagada y peligrosa en todo el mundo, causan daños significativos al medio ambiente y explotan la creatividad de otras personas.
¿Significa esto que la IA como tecnología en sí misma es intrínsecamente dañina? De ningún modo, dice la periodista Karen Hao, que cubre la industria. En algunas áreas, la IA realmente aporta beneficios. Por ejemplo, algunos modelos facilitan la vida a las personas con discapacidad. Traducen texto en sonidos y viceversa, facilitan la movilidad, ayudan con la navegación espacial y hacen que la psicoterapia sea más accesible. La IA desempeña un papel cada vez más importante en la investigación y el diagnóstico médicos, ayudando, por ejemplo, a encontrar signos de cáncer en las mamografías.
El problema no es la tecnología en sí, sino las prácticas comerciales de la industria, que exacerban muchos de los problemas del mundo, desde la creciente desigualdad hasta el neocolonialismo. El enfoque neoliberal moderno no puede convertirse en la base de tecnologías equitativas hasta que las personas cuyo trabajo e información personal se utilizan para crear y entrenar modelos de IA no posean los derechos sobre sus propios datos.
Las tecnologías de IA prometen un mundo mejor, pero sólo para ciertas personas. Esta distribución desigual no hace más que agravar la brecha entre el Norte y el Sur global, entre ricos y pobres. Mientras que los países del Norte Global –Europa, Estados Unidos, los países ricos del Este asiático– disfrutan de los beneficios económicos de la IA, las consecuencias de su desarrollo y apoyo recaen en gran medida sobre los hombros de las personas del Sur Global, que no tienen acceso al producto final de su trabajo ni a las ganancias que éste genera. Mientras las grandes corporaciones aumentan sus ganancias mediante la automatización, a los trabajadores les resulta cada vez más difícil mantener un empleo permanente en los sectores tradicionales. Es por eso que muchos de ellos se ven obligados a convertirse en "trabajadores del clic".
Al mismo tiempo, nos guste o no, nuestra vida diaria depende cada vez más de la industria de la IA. Los gobiernos de todo el mundo, incluida naciones como Rusia, recurren cada vez más a la inteligencia artificial y a la toma de decisiones automatizada. Los algoritmos se utilizan para predecir la delincuencia y la reincidencia, asignar fondos, beneficios sociales y servicios públicos. Resulta que el acceso a medicamentos, educación, transporte y financiación depende cada vez más de decisiones tomadas por IA. Exclusión de (o sobrerrepresentación en) datos y tecnología; y sesgos en el algoritmo, todo lo cual puede tener graves consecuencias para comunidades enteras y poblaciones vulnerables.
Por supuesto, cada vez hay más iniciativas para proteger los derechos de las personas que extraen minerales que son críticos para la industria de la IA. Los clickworkers también están intentando proteger sus derechos colectivos. Sin embargo, las raíces de muchos de los problemas que rodean a los modelos de IA se encuentran mucho más profundas: en la estructura de la economía moderna, construida sobre el principio de logros a corto plazo y de extracción del máximo beneficio para los inversores y las corporaciones. Esto es lo que conduce a la explotación, a la violación de los derechos laborales y a consecuencias devastadoras para el medio ambiente.
No importa cuán justa y ética sea la tecnología, no puede contrarrestar un mundo injusto.
Comentarios
Publicar un comentario