Considerado el ‘padrino’ de la inteligencia artificial por investigar la red neuronal, el Dr. Geoffrey Hinton cuestionó su desarrollo. «En este momento, no son más inteligentes que nosotros. Pero creo que pronto lo serán», remarcó
Que la inteligencia artificial se encuentre en el centro de la conversación ha desatado un gran debate sobre cuán peligrosa podría resultar su evolución. Geoffrey Hinton, visto como el padrino de la inteligencia artificial (IA) según la BBC, lanza una dura advertencia. El hombre de 75 años que renuncia a Google mediante un comunicado al New York Times dice que ahora lamentaba su trabajo. ¿Qué peligros augura en el desarrollo en el campo?
Para tener un contexto amplio sobre quién es Hinton es preciso señalar que gran parte de su carrera la dedicó a investigar la red neuronal. Este es un sistema matemático y computacional que aprende habilidades a través del análisis de datos. Además, dio inicio al desarrollo de la IA. Dijo a la BBC que algunos de los peligros de los chatbots de IA eran «bastante aterradores».
«En este momento, no son más inteligentes que nosotros, por lo que puedo decir. Pero creo que pronto lo serán», remarcó. La investigación pionera del Dr. Hinton ha allanado el camino para los sistemas de IA actuales como ChatGPT. En inteligencia artificial, las redes neuronales son sistemas similares al cerebro humano en la forma en que aprenden y procesan la información. Permiten que las IA aprendan de la experiencia, como lo haría una persona. Esto se llama aprendizaje profundo.

El psicólogo cognitivo y científico informático británico-canadiense dijo que los chatbots pronto podrían superar el nivel de información que contiene un cerebro humano. «En este momento, lo que estamos viendo son cosas como que GPT-4 eclipsa a una persona en la cantidad de conocimiento general que tiene y la eclipsa por mucho. En términos de razonamiento, no es tan bueno, pero ya lo hace. Razonamiento simple», dijo.
«Y dada la tasa de progreso, esperamos que las cosas mejoren bastante rápido. Así que debemos preocuparnos por eso». En el artículo del New York Times, el Dr. Hinton se refirió a los «malos actores» que intentarían usar la IA para «cosas malas». «Puedes imaginar, por ejemplo, que algún mal actor como Putin (el presidente ruso) decidió dar a los robots la capacidad de crear sus propios objetivos secundarios».
El científico advirtió que esto, eventualmente, podría «crear objetivos secundarios como ‘Necesito obtener más poder'». «He llegado a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos”, agregó Geoffrey Hinton. «Somos sistemas biológicos y estos son sistemas digitales. Y la gran diferencia es que, con los sistemas digitales, tienes muchas copias del mismo conjunto de pesos, el mismo modelo del mundo.
Pero no todo son advertencia. El Dr. Hinton le dijo a la BBC que «en el corto plazo» pensó que la IA brindaría muchos más beneficios que riesgos. «Así que no creo que debamos dejar de desarrollar esto», agregó. También dijo que la competencia internacional significaría que una pausa sería difícil. “Incluso si todos en los EE. UU. dejaran de desarrollarlo, China simplemente obtendría una gran ventaja”, dijo. El Dr. Hinton también dijo que era un experto en la ciencia, no en la política, y que era responsabilidad del gobierno garantizar que la IA se desarrollara «pensando mucho en cómo evitar que se vuelva deshonesta».
