Correción politica en el lenguaje digital

Hola,

Cuando nos dicen que las IA (Inteligencia Artificial)  están muy avanzadas, piensan como nosotros y que de aquí nada controlarán el mundo, tiene siempre un punto de exageración. Están muy avanzadas, hacen cosas increíbles, pero aún les queda un buen trecho por recorrer para ser humanas.
Un ejemplo está en la IA que Google está desarrollando para controlar textos ofensivos. Desde el momento en que creas una plataforma donde la gente puede expresar sus ideas, la responsabilidad (moral o legal) de que en ella no se exprese algo inadecuado en ella es tuya. Esta tarea, aunque cueste de creer, ya la realizan seres humanos que están desbordados y que en muchos casos a los pocos meses causan baja por problemas psicológicos, sobretodo por el constante contacto con información dañina. Así que gracias al potencial que demuestran las IA se está intentando que estas tareas las realicen ellas que no tienen sentimientos que corromper.
La diferencia entre un programa y una IA, es que el primero se han pensado todas las opciones posibles de entrada y se programan todas las respuestas posibles a esas entradas. En cambio a la IA se la entrena para que dada cualquier entrada siempre de una respuesta adecuada. El problema está en que la IA analiza los datos de entrada pero no puede como un humano darle un contexto, así que, de momento, se basa solo en la corrección política que los humanos le hemos dado como parámetros para funcionar. La gente de Google se ha dado cuenta al analizar las conclusiones de la IA que busca textos ofensivos que esta trata como ofensivos mensajes que analizados por un humano no lo eran y que la mayoría de los errores se producían con grupos sociales concretos. Vamos que sus conclusiones eran racistas.
La IA puede distinguir por el contexto del mensaje si cuando uno escribe la palabra negro se refiere al color o a una persona, lo que le resulta imposible en el segundo caso es saber si es en tono ofensivo, coloquial o un sesgo cultural. Así que por corrección política los trata todos como ofensivos y eso bloquea textos no ofensivos. Y están de momento solo con el inglés, espera a que empiecen con otros idiomas como el castellano donde palabras como moro, morucha, concha, gitano, pendejo, perro, forro, hoyo, mendigo, maletón,... no implican lo mismo en Argentina, México, Paraguay, Chile o España y todos hablan español. Sin querer entrar a cuando sean textos antiguos, o referencias a ellos, y se encuentre con expresiones como pisaverde o pagafantas.
Las IA son muy potentes, hacen muchas cosas bien, pero siguen sin poder alcanzar lo intangible de los humanos y los que los que al final deciden sobre la validez de sus entrenamientos al final siguen siendo humanos que tienen sus sesgos culturales. Así que aún estamos lejos de una IA semejante a nosotros... aunque no lo necesitan para dominarnos.

Comentarios

Entradas populares