Sábado, 04 de Mayo 2024

Wikipedia se está quedando sin editores voluntarios y esta es la razón

El reporte de la investigación, publicado en el segundo volumen de la revista PNAS Nexus, el 5 de diciembre de 2023, señaló esto

Por: NotiPress .

Dentro de los artículos de enciclopedia que aparecen al frente de las búsquedas en Google, Wikipedia se ha consolidado como un referente clave del acceso libre y divulgación del conocimiento en Internet. AFP / ARCHIVO

Dentro de los artículos de enciclopedia que aparecen al frente de las búsquedas en Google, Wikipedia se ha consolidado como un referente clave del acceso libre y divulgación del conocimiento en Internet. AFP / ARCHIVO

De acuerdo con un estudio de Oxford Academic, los comentarios tóxicos en Wikipedia han provocado que los voluntarios abandonen sus tareas de redacción y edición de artículos. El reporte de la investigación, publicado en el segundo volumen de la revista PNAS Nexus, el 5 de diciembre de 2023, señaló que hasta 17% de los voluntarios consideran no volver a la plataforma tras sentirse atacados con los comentarios públicos.

Cabe mencionar, dentro de los artículos de enciclopedia que aparecen al frente de las búsquedas en Google, Wikipedia se ha consolidado como un referente clave del acceso libre y divulgación del conocimiento en Internet. Pues, según cifras de Statista, Wikpedia recibió 4.9 mil millones de consultas solo en enero de 2023.

Al ser una enciclopedia digital editable por cualquier persona, la Fundación Wikimedia se encarga de coordinar y moderar la información a través de un grupo de voluntarios. Asimismo, corroboran la veracidad de las fuentes, y verifican que los contenidos multimedia se encuentren bajo una licencia Creative Commons (CC).

No obstante, un problema clave entre los voluntarios consiste en debatir si el uso de inteligencia artificial (IA) es adecuado para generar y verificar los artículos en la plataforma. Según el plan anual 2023-2024 de Wikimedia, el estado actual de la IA se mantiene con vulnerabilidades importantes respecto a la calidad, veracidad y estructura de la información. Frente a la ola de texto generado automáticamente, como en el caso de ChatGPT, la fundación señaló que el uso de esta tecnología puede "erosionar la confianza de los lectores".

Aunado a la polémica por el uso de IA en Wikipedia, los editores voluntarios se enfrentan a un segundo problema: los comentarios tóxicos en la pestaña de discusión. La opción de discutir cada artículo en Wikipedia abre el diálogo, aporta transparencia y permite el enriquecimiento de la enciclopedia, señaló Wikiwand. Sin embargo, el estudio de PNAS Nexus advirtió que esta opción también ha dado lugar a una serie de insultos y comentarios tóxicos. Esto dadas sus condiciones en cuanto al volumen de información, facilidad de edición para cualquier persona y la visibilidad en sus comentarios.

Para llevar a cabo la investigación, científicos de Alemania y Australia analizaron 57 millones de comentarios y sus efectos en 8.5 millones de voluntarios en los idiomas más populares de la enciclopedia. Según las cifras consultadas por NotiPress, los comentarios tóxicos provocaron que 20% de voluntarios frenaran sus actividades. Y si bien este grupo regresó después de días o semanas, el 17% consideró no volver, y el 5% abandonó Wikipedia.

Cabe señalar que los investigadores consideraron los comentarios tóxicos como ataques personales dirigidos a los voluntarios. A diferencia de un comentario de crítica o confrontación a los artículos, por lo que este tipo de interacciones entorpecen la productividad de la enciclopedia y podrían dificultar su sostenibilidad a largo plazo.

*Mantente al día con las noticias, únete a nuestro canal de WhatsApp

OF

Temas

Lee También

Recibe las últimas noticias en tu e-mail

Todo lo que necesitas saber para comenzar tu día

Registrarse implica aceptar los Términos y Condiciones