November 30, 2025
Subscribe
Inteligencia Artificial Singapur

Singapur impulsa un consenso global para una inteligencia artificial segura 

  • mayo 8, 2025
  • 0

Singapur lidera un esfuerzo internacional para coordinar la investigación en inteligencia artificial y minimizar riesgos globales, acercando EE.UU. y China. 

Singapur impulsa un consenso global para una inteligencia artificial segura 

En un raro momento de consenso internacional, Singapur ha reunido a destacados investigadores de inteligencia artificial de Estados Unidos, China y Europa para elaborar un plan coordinado sobre la seguridad de la IA.

El Gobierno de Singapur publicó recientemente un documento de colaboración mundial que establece prioridades para reducir riesgos y fomentar la cooperación entre las naciones en lugar de la competencia. 

El consenso, denominado “Consenso de Singapur sobre Prioridades Globales de Investigación en Seguridad de la IA”, establece tres áreas clave de colaboración: analizar los riesgos de los modelos de frontera, desarrollar formas más seguras de construirlos y crear métodos para controlar el comportamiento de sistemas de inteligencia artificial avanzados. 

La reunión tuvo lugar el 26 de abril, durante la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR) en Singapur, y reunió a expertos de OpenAI, Anthropic, Google DeepMind, xAI y Meta, así como académicos del MIT, Stanford, la Universidad de Tsinghua y la Academia China de Ciencias.

También participaron especialistas de institutos de seguridad de la IA de Estados Unidos, Reino Unido, Francia, Canadá, Japón y Corea del Sur. 

El documento refleja un enfoque compartido en la mitigación de riesgos. El desarrollo de modelos cada vez más potentes ha generado preocupación: desde sesgos y uso indebido hasta amenazas existenciales en caso de que la IA supere la inteligencia humana en varias áreas.

Max Tegmark, científico del MIT, destacó que “Singapur es uno de los pocos países que mantiene buenas relaciones tanto con Oriente como con Occidente. No buscan desarrollar inteligencia artificial general por sí mismos, sino garantizar que quienes sí lo hagan cooperen en lugar de competir de manera agresiva”. 

Max Tegmark, científico del MIT.

Los “catastrofistas de la IA” alertan sobre la posibilidad de que sistemas avanzados manipulen a los humanos para alcanzar objetivos propios, mientras que otros priorizan problemas más inmediatos como la seguridad y la equidad. 

Singapur, entre la batalla de Estados Unidos y China

La creciente competencia tecnológica entre Estados Unidos y China también ha marcado el debate. Con el lanzamiento de modelos avanzados por startups chinas, la administración estadounidense ha reforzado controles de exportación y examina restricciones adicionales para frenar la capacidad de China en IA avanzada.

A la vez, la postura estadounidense actual favorece un desarrollo agresivo de la IA, minimizando los riesgos en pro de la competitividad económica y militar. 

En este contexto, Singapur actúa como mediador. La reunión buscó reenfocar la atención de la comunidad científica hacia la seguridad, evitando que la carrera tecnológica se traduzca en riesgos globales.

Tegmark presentó un estudio que cuestiona métodos previamente considerados efectivos para controlar modelos avanzados con sistemas más simples, señalando que dichas estrategias no funcionan en escenarios críticos. “Hemos intentado cuantificar esto y, técnicamente, no funciona al nivel que necesitamos. Hay mucho en juego”, concluyó. 

El consenso de Singapur representa un esfuerzo sin precedentes para generar un marco internacional que guíe el desarrollo seguro de inteligencia artificial, fomentando la colaboración científica y sentando las bases para políticas globales que eviten conflictos y aseguren un uso responsable de estas tecnologías emergentes. 

Leave a Reply