Normas de uso

Hola,

"Los robots no van a intentar rebelarse contra la humanidad, sino que tratarán de optimizar lo que les digamos que hagamos. Así que tenemos que asegurarnos de decirles que optimicen para el mundo que realmente queremos." - Anca Dragan

Estas palabras son de Anca Dragan que forma parte del Future of life institute, que es una asociación que intenta plantear las normas para que haya un desarrollo responsable de la IA (Inteligencia Artificial). Ya tengo claro que en muchas partes la IA y los robots tardarán mucho mas en llegar que en otras. Esto ya nos sucedió con los coches, aún hay lugares del mundo sin ellos y otros están sobresaturados, pero tanto unos lugares como otros ahora sufren el problema de la contaminación. Quizá la ciencia no estaba tan avanzada a principios del siglo XX, pero todo parece indicar que con el estudio previo oportuno podrían haber optado por otra fuente de combustible que no fuera el fósil y ahora no tendríamos estos índices de contaminación actuales. Pues esto es lo que desean hacer ellos, prever el mejor uso de los robots antes de que sea una realidad.
En su documento "How do we align artificial intelligence with human values?" (¿Cómo alineamos la inteligencia artificial con los valores humanos?)  nos hablan de los objetivos de los 23 principios que han diseñado como base a plantear un buen uso futuro de los robots y las IA. A efectos prácticos no tienen ningún valor y nadie tiene porque hacerles caso, pero antes de ni siquiera pensar en un robot como HAL en "2001: Odisea del espacio", a alguien se le puede pasar por la cabeza crear un Terminator (si no está creado ya) que se dedique a matarnos a todos, y sería mejor evitarlo. Aunque ya conocéis a los humanos.



Os dejo los 23 principios traducidos para que le vayáis echando un ojo:

Cuestiones de investigación

1) Objetivo de la investigación: El objetivo de la investigación de la IA debe ser crear inteligencia no dirigida, pero inteligencia beneficiosa.

2) Financiación de la investigación: Las inversiones en IA deben ir acompañadas de fondos para la investigación para asegurar su uso beneficioso, incluyendo preguntas espinosas en ciencias de la computación, economía, derecho, ética y estudios sociales, tales como:

¿Cómo podemos hacer que los futuros sistemas de IA sean muy robustos, de modo que hagan lo que queramos sin fallar o ser hackeados?
¿Cómo podemos hacer crecer nuestra prosperidad a través de la automatización mientras mantenemos los recursos y el propósito de las personas?
¿Cómo podemos actualizar nuestros sistemas legales para que sean más justos y eficientes, para mantener el ritmo de la IA y para gestionar los riesgos asociados con la IA?
¿Con qué conjunto de valores debe alinearse IA y cuál debe ser su estatus legal y ético?

3) Enlace Ciencia-Política: Debe haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables de la formulación de políticas.

4) Cultura de la investigación: Se debe fomentar una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA.

5) Prevención de Carreras: Los equipos que desarrollan sistemas de Inteligencia Artificial deben cooperar activamente para evitar cortes en las normas de seguridad.

Ética y valores

6) Seguridad: Los sistemas IA deben ser seguros y seguros durante toda su vida operativa, y verificable, donde sea aplicable y factible.

7) Transparencia de falla: Si un sistema de IA causa daño, debería ser posible determinar por qué.

8) Transparencia judicial: Toda participación de un sistema autónomo en la toma de decisiones judiciales debe proporcionar una explicación satisfactoria que pueda ser auditada por una autoridad humana competente.

9) Responsabilidad: Los diseñadores y constructores de sistemas avanzados de IA son partes interesadas en las implicaciones morales de su uso, mal uso y acciones, con una responsabilidad y oportunidad para dar forma a esas implicaciones.

10) Alineamiento de valores: Los sistemas IA altamente autónomos deben diseñarse de manera que sus objetivos y comportamientos puedan estar asegurados para alinearse con los valores humanos a lo largo de su operación.

11) Valores Humanos: Los sistemas de IA deben ser diseñados y operados de tal manera que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.

12) Privacidad personal: Las personas deben tener el derecho de acceder, administrar y controlar los datos que generan, dado el poder de los sistemas de IA para analizar y utilizar esos datos.

13) Libertad y Privacidad: La aplicación de IA a datos personales no debe restringir irrazonablemente la libertad real o percibida de la gente.

14) Beneficio compartido: Las tecnologías de IA deben beneficiar y capacitar al mayor número posible de personas.

15) Prosperidad Compartida: La prosperidad económica creada por la IA debe ser compartida ampliamente, para beneficiar a toda la humanidad.

16) Control Humano: Los seres humanos deben elegir cómo y si delegar decisiones a los sistemas de IA, para lograr los objetivos humanos elegidos.

17) No subversión: El poder conferido por el control de los sistemas altamente avanzados de IA debe respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.

18) Raza armamentista IA: Se debe evitar una carrera armamentista en armas letales autónomas.
Cuestiones a más largo plazo

19) Capacidad Precaución: Al no haber consenso, debemos evitar suposiciones fuertes con respecto a los límites superiores de las capacidades futuras de IA.

20) Importancia: La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe ser planeada y administrada con cuidado y recursos proporcionales.

21) Riesgos: Los riesgos que plantean los sistemas de IA, especialmente los riesgos catastróficos o existenciales, deben estar sujetos a esfuerzos de planificación y mitigación acordes con el impacto esperado.

22) Auto-mejora recursiva: Los sistemas de inteligencia artificial diseñados para autorreducirse de forma recursiva o autorreplicarse de una manera que podría conducir a un aumento rápido de la calidad o la cantidad deben estar sujetos a estrictas medidas de seguridad y control.

23) Bien Común: La superinteligencia sólo debe desarrollarse al servicio de ideales éticos ampliamente compartidos y para el beneficio de toda la humanidad en lugar de un estado u organización.

1 comentario:

SAU dijo...

es todo un dilema ponerse a pensar en estas cosas jor... te siento como histerico con este tema...y no es que no importe si importa ....pero quizas cuando todo eso este funcionando a las maravillas capaz ni existamos...

besines jor :)
sau