Más de 200 expertos, científicos y premios Nobel lanzaron un llamado urgente a crear una institución internacional que establezca límites y normas vinculantes para el desarrollo de la inteligencia artificial (IA), en el marco de la Asamblea General de la ONU que celebra su 80º aniversario en Nueva York.
El anuncio fue realizado por la premio Nobel de la Paz Maria Ressa y respaldado por más de 70 organizaciones. El objetivo: trazar “líneas rojas” que impidan que la IA represente un riesgo irreversible para la humanidad.
“Instamos a los gobiernos de todo el mundo a alcanzar un acuerdo internacional crucial sobre los límites que la IA nunca debe cruzar”, declaró en conferencia virtual Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA.
Prevenir antes que lamentar
Los impulsores de la iniciativa señalan que no se trata de sancionar después de una crisis, sino de prevenir riesgos a gran escala. Proponen que los desarrolladores de IA deban demostrar la seguridad de sus sistemas como requisito para acceder al mercado, de manera similar a los medicamentos o a la industria nuclear.
El contexto es claro: gigantes tecnológicos como Google, Meta u OpenAI invierten miles de millones para alcanzar la inteligencia artificial general (IAG o AGI, por sus siglas en inglés), un sistema capaz de superar las capacidades del cerebro humano. Aunque por ahora parece ciencia ficción, especialistas advierten que podría hacerse realidad en la próxima década.
Riesgos de catástrofe global
Stuart Russell, profesor de la Universidad de Berkeley y referente en ética de IA, advirtió que el desarrollo actual es intrínsecamente inseguro.
“El comportamiento humano está diseñado para alcanzar objetivos: persuadir, sobrevivir, vender, seducir… inevitablemente los sistemas de IA aprenden a perseguir estos mismos objetivos por sí mismos. El problema es que no existe un plan real para controlarlos, ni de los desarrolladores ni de los gobiernos”, señaló.
El académico alertó sobre una probabilidad “significativa” de una catástrofe similar a la de Chernóbil, que podría implicar sabotajes a sistemas financieros, redes eléctricas o comunicaciones.
“La otra posibilidad es una catástrofe mucho mayor: que la humanidad pierda el control de manera irreversible”, advirtió. Incluso citó a un investigador de OpenAI que estimó en 60% la probabilidad de extinción humana derivada de la IA.
Hacia una regulación global
Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, subrayó que existen avances como el código de prácticas de la Unión Europea, pero recalcó que es imprescindible una institución internacional que defina límites globales, supervise y actúe cuando se crucen esas “líneas rojas”.
La propuesta será debatida en los próximos días en los foros de la ONU, donde los expertos esperan que los Estados miembros avancen hacia un tratado vinculante para la gobernanza de la inteligencia artificial.