¿Qué Pasa? Espectáculos

Premios Nobel y científicos piden una institución internacional para poner límites a IA

Premios Nobel y científicos piden una institución internacional para poner límites a IA

Nueva York.– Premios Nobel, expertos en inteligencia artificial (IA) y científicos solicitaron este lunes la creación de una institución internacional que ponga límites a los riesgos de esta tecnología, en vísperas de las reuniones de alto nivel de la Asamblea General de la ONU en Nueva York.

La iniciativa, respaldada por más de 200 personalidades y 70 organizaciones, propone establecer un acuerdo internacional vinculante sobre las “líneas rojas” que nunca debería cruzar la IA.

“Este llamamiento global acaba de ser anunciado por la premio Nobel de la Paz Maria Ressa, en la reunión de alto nivel que conmemora el 80º aniversario de la ONU. Instamos a los gobiernos a alcanzar un acuerdo internacional crucial sobre los límites que la IA nunca debe cruzar”, declaró en rueda de prensa virtual Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA.

Quizas te interese leer: La Casa Blanca confirma que recibió una carta con «muchas mentiras» enviada por Maduro

Segerie explicó que el objetivo es prevenir riesgos a gran escala, “potencialmente irreversibles”, antes de que ocurran, en lugar de castigar infracciones tras un incidente grave. La coalición de expertos busca que los desarrolladores tengan la obligación de demostrar la seguridad de sus sistemas como condición de acceso al mercado, tal como ocurre en la industria farmacéutica o en las centrales nucleares.

Las grandes tecnológicas como Meta, Google u OpenAI invierten enormes recursos en el desarrollo de la llamada superinteligencia o inteligencia artificial general (IAG), un hipotético sistema capaz de superar las capacidades del cerebro humano, que por ahora solo pertenece al terreno de la ciencia ficción, aunque algunos expertos advierten que podría hacerse realidad en la próxima década.

El profesor Stuart Russell, de la Universidad de Berkeley, advirtió que la IA “está diseñada para imitar el comportamiento humano y, por ende, a perseguir objetivos propios como persuadir, impresionar, sobrevivir o vender. Esto la hace intrínsecamente insegura”. Subrayó que los desarrolladores reconocen no tener un plan para controlar los sistemas de IA y que, hasta ahora, los gobiernos tampoco han diseñado mecanismos de exigencia.

Quizas te interese: Gobierno de Trump vinculará el uso del paracetamol con el autismo, según medios

Russell sostuvo que existe una probabilidad “significativa” de que ocurra una catástrofe de la magnitud de Chernóbil, ya que esta tecnología podría provocar sabotajes coordinados en sistemas financieros, de comunicación o en redes eléctricas. “La otra posibilidad es una catástrofe mucho mayor, en la que la humanidad perdería el control irreversiblemente”, advirtió.

Incluso, citó testimonios de líderes del sector: “Un director ejecutivo me dijo que un evento de la escala de Chernóbil es el mejor escenario posible, y un investigador sénior de OpenAI estimó que la probabilidad de extinción humana debido a la IA es del 60 %”.

Por su parte, Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, destacó avances como el código de prácticas de la Unión Europea, pero insistió en que se requieren regulaciones “globales y aplicables”.

“Probablemente se necesite crear una nueva institución internacional que defina los límites globales de la IA, supervise su cumplimiento e intervenga cuando se crucen esos límites”, concluyó Iliadis.