¿Podría una revisión de las leyes de Asimov ayudarnos a evitar un “momento Chernobyl” de la IA?

Date:

Incluso Dario Amodei, fundador de la empresa de inteligencia artificial Anthropic, que parece apasionado por los esfuerzos para prevenir el Armagedón, admite que no tiene la respuesta que tanto necesitamos.

Uno de los intentos más interesantes de regular el uso de la inteligencia artificial puede haber sido realizado durante la Segunda Guerra Mundial por un estudiante de posgrado de la Universidad de Columbia que entonces trabajaba temporalmente en la Marina de los Estados Unidos. Su nombre era Isaac Asimov, y en su primer cuento “Detour” (1941), postuló tres leyes que siguen siendo notablemente inspiradoras para cualquiera que esté pensando en cómo resolver el problema intelectual y político que plantea la inteligencia artificial en la guerra.

A diferencia de los recientes intentos de la OCDE (Organización para la Cooperación y el Desarrollo Económico) y la UE de desarrollar reglas, las leyes de Asimov son sorprendentemente concisas. Afirman que un robot (lo que ahora llamamos un “agente artificialmente inteligente”) nunca debería dañar a un ser humano (o permitir que se produzca daño por inacción). Siempre debe obedecer las órdenes dadas por las personas, a menos que contradigan la primera prohibición. Y siempre defenderá su existencia, si ello no contradice las disposiciones primera y segunda.

En su historia, el propio Asimov muestra cómo las tres leyes pueden crear contradicciones internas que conducen a la parálisis. Sin embargo, los tres principios de Asimov todavía pueden ser útiles como punto de partida para la estrategia que necesitamos ahora.

Lo antrópico toma una “posición”

El mayor beneficio de la reciente nota de Dario Amodei sobre los peligros de una tecnología aún en su adolescencia es el reconocimiento de que Anthropic, la empresa fundada por Amodei, utiliza su propio modelo de lenguaje grande (llamado Claude) para desarrollar nuevas versiones de sí mismo.

La inteligencia artificial está creando robots cada vez más inteligentes, acercándonos a esa “singularidad” teorizada por primera vez por el gran matemático John von Neumann: el punto en el que la inteligencia artificial supera la inteligencia humana y nos vuelve irrelevantes. Si una tecnología está en su adolescencia, se está desarrollando muy rápidamente y pronto estará fuera del control de su creador.

Amodei habla en la Cumbre de IA en India. Agencia de Protección Ambiental

Sin embargo, Amodei no parece tener una propuesta concreta sobre cómo solucionar este problema. Dijo que los contratos de Anthropic con el Departamento de Guerra de Estados Unidos nunca deberían implicar el uso de los modelos de la compañía para expandir las capacidades de “vigilancia doméstica masiva” o “armas totalmente autónomas”.

Esta demanda llevó a Anthropic a una amarga disputa con el gobierno de Estados Unidos. Sin embargo, ésta parece ser una respuesta bastante limitada, que cubre sólo una dimensión de un problema mucho más amplio. Amodei se centra principalmente en la seguridad de los ciudadanos estadounidenses, mientras que actualmente las personas en otras partes del mundo son las más afectadas por el uso de armas autónomas. Necesitamos una visión más audaz, y la intuición de Asimov puede ayudar.

Nuevas reglas

Un enfoque es pedir a todos los modeladores de IA que incluyan en sus códigos fundacionales tres comandos simples y atrevidos como: “Nunca matarás a una persona (excepto en defensa propia)”; “siempre intentaréis trabajar en beneficio de la humanidad (a menos que tal cargo implique una violación de primer orden)”; “Cuando dudes de que tus acciones puedan violar el primer o segundo comando, elegirás la inacción y preguntarás qué hacer”.

Lo más probable es que esta iniciativa tenga que surgir de un grupo de países según un esquema similar a los tratados sobre la no proliferación de armas nucleares. Y sería bueno tener un debate sobre algunas ideas nuevas antes de que nos veamos obligados a hacerlo por algunas consecuencias nucleares imprevistas causadas por el uso de la IA.

Como todos los intentos de regular un futuro que aún no podemos ni imaginar, estos tres equipos tendrán algunos inconvenientes. Es posible que un robot se haya negado a matar al ex líder iraní Ali Jamenei, pero puede ser un precio que valga la pena pagar si eso significa que podemos evitar sentar un precedente para otras interpretaciones discrecionales y peligrosas. Los robots no siempre logran identificar a las personas (como el propio Asimov admitió en artículos posteriores) y, sin embargo, este bien puede ser uno de esos problemas intelectualmente fascinantes que los modelos nacidos para comprender el lenguaje humano pueden resolver.

Más importante aún, se necesitará no sólo información sino también mucha sabiduría para comprender lo que es bueno para la humanidad. Los robots a menudo pueden permanecer inactivos, esperando instrucciones. Sin embargo, la eficiencia no es una religión que debamos seguir cuando se trata de la supervivencia de nuestra especie. Darle sentido a lo que cada vez más parece ser una de las mayores revoluciones tecnológicas de todos los tiempos requiere una reflexión cuidadosa y una planificación anticipada.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related