Asustados por el progreso

Hola,

OpenIA es un proyecto que, entre las cosas, se dedica es a enseñar a redactar textos a una inteligencia artificial (IA), a un ordenador. La idea es que dado un texto la IA sea capaz de continuarlo con coherencia y sentido.
Esto ya por si solo es impresionante, pero todos los avances que se realizan en el campo de la IA no intentan que esta solo realice la tarea para la que se le creo, sino que durante su realización aprenda para en el futuro solucionar otros problemas. En el caso de este nuevo proyecto se nutrió a la IA de textos sacados de internet (sin permiso de sus propietarios) y el entrenamiento ha funcionado bien, y es capaz de crear textos muy creíbles, pero querían saber si también había aprendido.  En internet se suele utilizar el acrónimo TL;DR  al final de un texto muy largo y a continuación el autor del texto escribe un pequeño resumen del mismo. Vamos para los vagos que no quieren leer.  Así que le dieron un texto a la IA acabado en TL;DR y lo siguiente que escribió fue un resumen del texto dado. Le pusieron otro texto y al final de este hicieron varias preguntas sobre el mismo y dieron a continuación la respuesta. La última línea solo era una pregunta y la IA la primera cosa que escribió fue una respuesta a la pregunta. Otra prueba fue poner un texto en inglés un signo de igual y el mismo texto en francés. A continuación escribieron otro texto en inglés y lo acabaron con un igual y la IA tradujo el texto al francés. El proyecto, la investigación es toda en inglés así que reastrearon como podía saber francés, hasta que dieron que una pequeña parte de los datos que le nutrieron de internet estaban en francés.
Así que sí, han dado con el código necesario para que una IA aprenda, incluso cosas para las que no le han entrenado. En el  mundillo de la IA estos estudios se acaban compartiendo en forma de código libre para que todo el mundo pueda estudiarlo, pero parece que ellos mismos se han acojonado del resultado, o alguien les ha convencido,  y esta vez ese código no se ha hecho público con el estudio. Dejar suelto un resultado así, sin necesidad de mejorarlo mucho, podría hacer que miles de chatbots publicaran en Twitter y creyéramos que estamos leyendo interacciones de humanos. Cada vez será mas complicado creer en algo que no puedas tocar y validar por ti mismo.




Comentarios

Entradas populares