Wikipedia, una de las fuentes más consultadas en Internet, enfrenta desafíos importantes en la era de la inteligencia artificial (IA). Aunque históricamente ha lidiado con problemas de desinformación, troleo y manipulación, la llegada de herramientas como ChatGPT ha añadido una capa de complejidad. Estos sistemas pueden generar textos extensos y aparentemente bien estructurados, lo que facilita su inserción en la plataforma, pero también incrementa el riesgo de que información inexacta o manipulada pase desapercibida.
Desafíos que plantea la IA para Wikipedia
- Generación masiva de textos: La IA permite crear contenido creíble con rapidez. Esto facilita el uso de Wikipedia como vehículo para desinformar o promocionar productos y personas. Miguel Ángel García, miembro de Wikimedia España, destaca cómo los voluntarios han detectado patrones inusuales en nuevos editores que suben textos extensos y aparentemente elaborados, pero con signos de haber sido generados por IA, como redundancias y frases genéricas.
- Verificación de fuentes: Un artículo en Wikipedia debe respaldarse en fuentes fiables. Sin embargo, la proliferación de medios digitales con estándares laxos de verificación, algunos potenciados por la IA, complica este proceso. El contenido no fiable que se presenta como fuente externa representa un riesgo adicional, ya que puede parecer legítimo a primera vista.
- Dependencia de voluntarios: La plataforma depende de una comunidad activa de 265,000 voluntarios que moderan, editan y verifican el contenido. Aunque este modelo ha demostrado ser resiliente, la cantidad de contenido generado con IA podría sobrecargar los sistemas de supervisión actuales.
- Impacto en la edición y consulta: Si los usuarios comienzan a depender exclusivamente de chatbots para obtener información, podría haber una desconexión entre la generación de conocimiento (en Wikipedia) y su consumo (a través de IA como ChatGPT). Esto podría reducir el número de voluntarios dispuestos a contribuir al proyecto.
Estrategias de Wikipedia ante la IA
- Detección de contenido generado con IA: Los voluntarios están entrenados para identificar textos sospechosos, como aquellos con redundancias o falta de coherencia. También se han implementado políticas que exigen fuentes verificables para validar el contenido.
- Ampliación del equipo técnico: Desde el lanzamiento de ChatGPT, Wikipedia ha reforzado su equipo de aprendizaje automático para hacer frente a los desafíos asociados con la IA.
- Listas negras de fuentes: Wikipedia puede prohibir el uso de fuentes poco fiables. Un ejemplo notable fue la inclusión del tabloide Daily Mail en su lista negra, tras repetidos casos de información no verificada.
- Enfoque en la atribución: Wikimedia trabaja para garantizar que las aplicaciones de IA que usan contenido de Wikipedia, como ChatGPT, atribuyan correctamente la información y enlacen a las fuentes originales. Esto no solo es una cuestión de reconocimiento, sino también una herramienta contra la desinformación.
Un ecosistema interconectado
La paradoja radica en que gran parte del conocimiento adquirido por modelos de IA proviene de Wikipedia, pero el impacto de estas tecnologías plantea dudas sobre el futuro de la plataforma. La colaboración entre las tecnologías de IA y la comunidad de Wikipedia será clave para mantener la calidad y relevancia de la enciclopedia en el entorno digital.