Premios Nobel, expertos en inteligencia artificial (IA) y científicos pidieron recientemente la creación de una institución internacional que establezca límites a los riesgos asociados a esta tecnología. Este llamamiento se realizó antes de las reuniones de alto nivel de la Asamblea General de las Naciones Unidas, que se llevan a cabo esta semana en Nueva York.
La iniciativa, que ha recibido el respaldo de más de 200 personas y más de 70 organizaciones, insta a los gobiernos a establecer un acuerdo internacional vinculante sobre las «líneas rojas» que no deben cruzarse en el desarrollo de la inteligencia artificial.
Maria Ressa, premio Nobel de la Paz, presentó este llamamiento en una rueda de prensa virtual, en el marco de la conmemoración del 80º aniversario de la ONU. Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA, enfatizó que es crucial para los gobiernos de todo el mundo alcanzar este acuerdo internacional respecto a los límites de la IA.
The time for AI self-regulation is over. 200 Nobel laureates, former heads of state, and industry experts just signed a statement: «We urgently call for international red lines to prevent unacceptable AI risks».
Segerie destacó que el objetivo no es reaccionar después de un incidente grave, sino prevenir riesgos a gran escala y potencialmente irreversibles antes de que ocurran. La coalición que impulsó esta iniciativa busca que se exija a los desarrolladores demostrar la seguridad de sus sistemas de IA como condición para poder acceder al mercado, tal como se hace con medicamentos y centrales nucleares.
Límites a la inteligencia artificial como medida de seguridad
Gigantes tecnológicos como Meta, Google y OpenAI están invirtiendo enormes cantidades de dinero en alcanzar la «superinteligencia» o inteligencia artificial general (IAG), un sistema hipotético de IA que superaría las capacidades del cerebro humano. Aunque actualmente existe solo en la ciencia ficción, expertos consideran que podría materializarse en la próxima década.
Stuart Russell, profesor en la Universidad de Berkeley, analizó que la IA está diseñada para imitar de manera efectiva el comportamiento humano. Advirtió sobre los peligros que esto conlleva, ya que los sistemas de IA pueden adquirir y perseguir objetivos propios, lo que resulta en un desarrollo intrínsecamente inseguro.

Uno de los mayores temores de Russell es que los desarrolladores no tienen un plan para controlar los sistemas de IA y que, hasta ahora, los gobiernos no han establecido requisitos para que ello ocurrió. El experto no busca alarmar, pero apuntó que existe una probabilidad «significativa» de que se produzca un incidente de gran magnitud, similar al accidente nuclear de Chernóbil, vinculado a un sabotaje de sistemas financieros, de comunicación o eléctricos.
Russell advierte sobre la posibilidad de una catástrofe aún mayor que podría llevar a la humanidad a perder el control de su existencia de manera irreversible.
La necesidad de una regulación global
Russell también consideró que existe una tercera opción, poco realista, en la que el desarrollo y la implementación de esta tecnología avanzada no causen problemas. Anotó que un director ejecutivo le dijo recientemente que un evento de la magnitud de Chernóbil sería el mejor escenario posible, mientras que un investigador senior de OpenAI estimó que la probabilidad de extinción humana debido a la IA es actualmente del 60%.
The Global Call for AI Red Lines is live!! More than 200+ former heads of state, Nobel laureates, and other respected thinkers and leaders, along with 70+ organizations, are together calling for “do not cross” limits regarding AI’s most severe risks.
Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, mencionó que ya se han dado «primeros pasos importantes», como el desarrollo de un código de prácticas por parte de la Unión Europea. Sin embargo, afirmó que es urgente establecer regulaciones «globales y aplicables».
Según Iliadis, será necesario crear una nueva institución internacional que defina límites globales para la IA y supervise su cumplimiento. Además, esta entidad debería intervenir cuando dichos límites sean sobrepasados, garantizando así un uso seguro y responsable de la inteligencia artificial en el futuro.

