Search

Expertos alertaron por el avance de la IA e insistieron en abordar una regulación efectiva

"Debería ser una prioridad mundial", dijeron a través de una carta

Un grupo de expertos del sector tecnológico advirtió sobre el «riesgo de extinción» de la humanidad por el impetuoso avance de la Inteligencia Artificial (IA), a través de una breve carta difundida este martes, y además ratificaron la necesidad de ponerle un límite.

Mediante esa nota, afirmaron que «mitigar el riesgo de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».

El comunicado, que fue publicado en el sitio web safe.ai, lleva las firmas de Martín Hellman, profesor emérito de Ingeniería Eléctrica de la Universidad de Stanford; Lila Ibrahim, directora de operaciones de Google DeepMind; y Marian Rogers Croak, vicepresidenta del Centro de IA Responsable y Tecnología Centrada en el Ser Humano de Google.

La carta también fue rubricada por Sam Altman, presidente ejecutivo de OpenAI, la empresa que creó ChatGPT, un sistema de conversación basado en Inteligencia Artificial, y que puede desarrollar tareas en diversas áreas.

Sin embargo, el mismo Altman se reunió la semana pasada con distintos líderes europeos para tratar de ponerle un límite a la IA, ante la posibilidad de que este sistema adquiera una autonomía que ponga en riesgo a la humanidad.

En marzo, más de mil empresarios e investigadores del sector tecnológico -entre ellos Elon Musk, quien no firmó la carta de este martes- habían solicitado en otra misiva que se suspendan durante seis meses los sistemas de IA.

10