IA. Esto señala la declaración de 22 palabras que ha emitido un grupo de CEOs, investigadores e ingenieros con enfoque en la IA, entre los que destacan Demis Hassabis, CEO de Google, DeepMind y Sam Altman, CEO de OpenAI.
Los riesgos y posibilidades de la inteligencia artificial (IA) han sido objeto de debates y especulaciones desde que el famoso ChatGPT saltó a la escena. Se han planteado escenarios en los que la IA podría rebelarse contra sus creadores y llevar a la extinción de la humanidad, tal como se ha retratado en numerosas películas de ciencia ficción.
Recientemente, un grupo de CEOs, investigadores e ingenieros con enfoque en la IA ha emitido una contundente declaración de 22 palabras que destaca la potencial letalidad de las máquinas. «Mitigar el riesgo de una eventual extinción propiciada por la IA debería ser una prioridad global a la misma altura que otros peligros como las pandemias y las guerras nucleares», aseguran.
Esta declaración, emitida por la organización no gubernamental Center for AI Safety, la rubrican figuras destacadas del campo de la IA como Demis Hassabis, CEO de Google DeepMind; Sam Altman, CEO de OpenAI, y Geoffrey Hinton y Youshua Bengio, dos de los galardonados con el Premio Turing en 2018 por su trabajo en IA.
No es la primera vez que expertos advierten sobre los riesgos potenciales de la IA. En marzo pasado, se publicó una carta abierta que abogaba por una pausa de seis meses en el desarrollo de la IA, pero recibió críticas y opiniones divididas. Algunos consideraron que la carta exageraba los riesgos, mientras que otros estuvieron de acuerdo en la existencia de peligros, pero no con las soluciones propuestas.
Dan Hendrycks, director ejecutivo de Center for AI Safety, le aseguró a The New York Times que la declaración es deliberada y su último objetivo es evitar posibles desacuerdos. “No queríamos poner sobre la mesa un gran menú de 30 intervenciones potenciales”, dijo. “Cuando eso pasa, el mensaje se diluye”.
Hendrycks describe esta declaración como una presentación formal de las figuras prominentes en el campo de la IA que están genuinamente preocupadas por el posible desarrollo perjudicial de esta tecnología.
“Existe el malentendido, incluso dentro de la propia comunidad de IA, de que hay solo un puñado de pájaros de mal agüero”, subrayó. “Sin embargo, lo cierto es que en privado mucha gente expresa su preocupación por la IA”.
El debate sobre los peligros de la IA se centra en escenarios hipotéticos en los que los sistemas de IA aumentan rápidamente su capacidad y dejan de operar de manera segura. Los expertos advierten que una vez que los sistemas de inteligencia artificial alcanzan cierto nivel de sofisticación, puede resultar imposible controlar sus acciones.
Sin embargo, algunos escépticos señalan la incapacidad de la IA para realizar tareas mundanas como conducir un automóvil. Así, pese a millones de dólares en inversión en esta área de investigación, los autos plenamente autónomos están lejos de convertirse en una realidad.