4 mins 2 semanas
Estamos siendo CENSURADOS, por Favor Comparta ESTE ARTÍCULO:
Read Time:2 Minute

La IA detrás del prometedor bot de chat tuvo que ser entrenada para no arrojar contenido sexual y violento

ChatGPT, un chatbot impulsado por IA que atrajo la atención generalizada por su generación de texto, está parcialmente construido utilizando el trabajo de trabajadores mal pagados en Kenia, informó la revista TIME. Fueron contratados para leer pasajes de texto explícito y etiquetarlos, por lo que el algoritmo podría evitar este tipo de lenguaje.

Según una exposición publicada el miércoles, el desarrollador OpenAI contrató a una empresa con sede en San Francisco llamada Sama, que se especializa en anotar datos para el entrenamiento de IA. El trabajo es realizado por humanos en países como Kenia y Uganda, donde los salarios son más bajos que en las naciones desarrolladas.

Tres contratos de Sama con OpenAI se firmaron a fines de 2021 y valían alrededor de $ 200,000, informó TIME basado en documentos de facturación. Alrededor de tres docenas de trabajadores en Kenia tenían la tarea de leer descripciones gráficas de actos, incluido el abuso sexual de niños, la bestialidad, el asesinato, el suicidio, la tortura, las autolesiones y el incesto.

Su salida, etiquetada de acuerdo con la naturaleza del contenido, fue utilizada por OpenAI para entrenar a su IA para vigilar su propio lenguaje. ChatGPT genera texto después de aprender de miles de millones de palabras escritas por humanos disponibles en línea, incluidos materiales inapropiados.

Según la primicia, a los trabajadores en Kenia se les pagó un salario neto de entre $ 1.32 y $ 2 por hora, dependiendo de su posición y desempeño. Tres de ellos le dijeron a TIME que se esperaba que analizaran 150 y 250 pasajes de texto, que varían en longitud de 100 a 1,000 palabras, en un turno de nueve horas.

El año pasado, TIME informó que Sama hizo un trabajo similar para Facebook, ayudando con la eliminación de contenido que violaba las reglas de la plataforma. En ambos casos, la revista dijo que algunas personas quedaron con «cicatrices mentales» después de leer los materiales tóxicos.

A principios de 2022, OpenAI contrató a Sama para otro trabajo, que implicaba etiquetar imágenes explícitas para un proyecto diferente. Pero, en cuestión de semanas, el subcontratista se retiró del acuerdo, aparentemente porque algunas de las imágenes eran ilegales según la ley estadounidense. OpenAI culpó a la falta de comunicación.

A principios de este mes, Sama anunció que ya no trabajaría con contenido confidencial y, en cambio, se centraría en anotar datos para soluciones de visión artificial de IA. TIME observó que, a pesar de todo su glamour, «la IA a menudo se basa en el trabajo humano oculto en el Sur Global que a menudo puede ser perjudicial y explotador».

Fuente RT

Deja un comentario