Inteligencia artificial

Hola,

Hace unos días un grupo de gente que saben de lo que hablan, cuando hablan de tecnología, hicieron  público un documento donde alertaban de los peligros de la inteligencia artificial. Hablamos de personas como  Stephen Hawking hasta Bill Gates, incluso el mismo Clive Sinclair culpable de tantos niños de los setenta estemos trabajando de picateclas ahora mismo.
En cuanto a ordenadores hemos visto como gente que sabía mucho se equivocaba en sus predicciones, pero según las predicciones actuales en unos 20 o 30 años mas, podemos tener ordenadores tan potentes como el cerebro humano, y hacia finales del siglo XXI un único procesador podría ser mas potente que todas los cerebros humanos juntos al mismo tiempo. Poniéndonos películeros, en 20 años estaríamos en el niño robot de "I.A." y a finales de siglo con el ordenador central de "Yo, robot", el HAL de "2001: Odisea en el espacio", o con el Skynet de "Terminator".
Las teorías de estos sabios dice que la diferencia entre hombres y máquinas, estaría en eso que llamamos alma, y en nuestra insuperable estupidez. Que las máquinas serán cada vez mas inteligentes, con acceso y utilización de toda la información, que acabarían produciendo programaciones tan complejas que al final solo otras máquinas serian capaces de entender y controlar. Llegado ese momento dicen que las máquinas serán conscientes, y se darán cuenta que la diferencia entre ellas y los humanos, es la misma que entre nosotros y nuestros animales de compañía. Así podrían decidir aniquilarnos, como en "Terminator", encerrarnos, como en "Yo, robot", o hacernos servir de combustible, como en "Matrix".
La cable esta como siempre en la estupidez humana. Después de las bombas de Hiroshima y Nagasaki, estuvimos (y estamos) a un solo botonazo de exterminarnos unos a otros, solo a una raza estúpida como la humana, viendo lo sucedido decidiría fabricar mas bombas como esas.¿Seremos tan estúpidos como para construir máquinas que nos dominen?
De momento hay una barrera quantica que aún hay que superar. El siguiente salto ha de producirse, eso dicen, gracias a procesadores quanticos, y aunque tienen mucha teoría parece que no dan con el como. De lograr superar esta barrera, vendría la decisión de hasta donde la hacemos crecer para no ser presos de nuestra propia tecnología. Aunque quizá no lleguemos tan lejos, ya que los primeros robots serán para matar. Ya asesinamos gente vía dron, ¿qué no haremos con un robot que pueda cargar un misil? Y quien dice que no nos auto-extinguiremos manejando robots a distancia.
El lado positivo es, que si somos capaces de controlar nuestra estupidez, la situación puede ser realmente increíble. Robots capaces de curarnos de casi cualquier cosa. Robots capaces de llevarnos mas allá de nuestro sistema solar. Máquinas que trabajen por nosotros. Máquinas que eviten cualquier accidente. Procesadores que nos permitan estar mas cerca de los misterios del universo....Nos extinguiremos, sin duda, somos demasiado estúpidos para hacerlo bien.

No hay comentarios: