En un hipotético escenario en el que los chatbots resuelvan las consultas de los usuarios con un resumen, existe el riesgo de que los artículos de la página pierdan vistas e incluso no tengan la edición adecuada.
Wikipedia fue creada en el 2001 como una fuente de consulta en Internet donde puede encontrarse información de diversos temas a modo de enciclopedia. Los artículos compartidos pueden ser editados por cualquier usuario con el fin de que la web se enriquezca de contenido constantemente.
Sin embargo, debido a ello, Wikipedia siempre ha presentado el riesgo de la presencia de información falsa. La página con más de 16.000 millones de visitas al mes, así que uenta con una comprometida comunidad de 265.000 voluntarios activos enfocados en filtrar ese tipo de artículos.
![](https://static.mercadonegro.pe/wp-content/uploads/2024/12/13151828/GRAFICA-29-2.jpg)
Frente a esta problemática, el lanzamiento de ChatGPT en el 2022 logró que la inteligencia artificial (IA) pueda realizar tareas relacionadas con el lenguaje, desde la traducción hasta incluso la generación de texto. El desarrollo de esta aplicación, a cargo de OpenAI, ha sido quizá el avance tecnológico más importante de los últimos años porque se adapta a diversos rubros.
Por ello, Jimmy Wales, uno de los cofundadores de Wikipedia, declaró que la IA es a la vez “una oportunidad y una amenaza”. ¿Por qué? Por la automatización de contenidos que dan pie a que pululen las fake news en artículos editados rápidamente en poco tiempo sin uso de fuentes.
![](https://static.mercadonegro.pe/wp-content/uploads/2024/12/13151837/GRAFICA-30-2.jpg)
Estrategia para combatir la desinformación
Este tipo de textos corren el riesgo de perderse dentro de los más de 62 millones de artículos en más de 300 idiomas que tiene la página web. Al respecto, Chris Albon, director de Aprendizaje Automático en la Fundación Wikimedia, que controla Wikipedia, explicó a ”El País” que desde el 2002 algunos voluntarios han utilizado herramientas de IA, por lo que dicha tecnología no les es ajena.
En ese sentido, esa misma comunidad es la que se encarga de la moderación del contenido, puesto que no solo escriben textos, también los editan y detectan los que contienen datos sospechosos. Por su parte, Miguel Ángel García, socio de Wikimedia España y exmiembro de la junta directiva, cuenta que “en la mayoría de casos, los artículos se borran instantáneamente, porque a golpe de dos clics eres capaz de detectar que el texto no tiene ni pies ni cabeza. Si no es así, se suelen marcar para que se borren automáticamente en un plazo máximo de 30 días si el autor no es capaz de acreditar con fuentes lo que está escrito”.
Asimismo, Albon comentó que todo radica en aprender a convivir con estas herramientas. Por eso, el portal no penaliza el uso de IA en los textos, pero debe ajustarse a sus estándares de calidad y veracidad.
No obstante, surge otra preocupación relativa al futuro de Wikipedia en la era de la IA En un hipotético escenario en el que los chatbots resuelvan las consultas de los usuarios con un resumen, existe el riesgo de que los artículos de la página pierdan vistas e incluso no tengan la edición adecuada.
“Si hay una desconexión entre dónde se genera el conocimiento, como por ejemplo en Wikipedia, y dónde se consume, como por ejemplo en ChatGPT, corremos el riesgo de perder a una generación de voluntarios”, sentenció Albon. Esto quiere decir que la solución apunta a la atribución y al correcto manejo de fuentes que justifique cada texto añadido al portal