More

    Un estudio reveló que el 5% de los artículos de Wikipedia ya se escriben con Inteligencia Artificial

    Además, se descubrió que los textos identificados como generados por IA tienen una calidad inferior, carecen de citas y, en algunos casos, muestran sesgos o parcialidad en temas controvertidos.

    Una investigación reveló que aproximadamente el 5% de los artículos que se publican en Wikipedia en inglés tienen contenidos generados por inteligencia artificial. El descubrimiento proviene de un estudio llamado El Auge del Contenido Generado por IA en Wikipedia, que analizó un total de 2909 artículos publicados en agosto de 2024.

    El informe, realizado por los investigadores de la Universidad de Princeton, Creston Brooks, Samuel Eggert y Danis Peskoff, utilizó herramientas de detección de IA, como GPTZero y Binoculars, para evaluar el grado de participación de los modelos de generación de lenguaje en los textos seleccionados.

    Según la investigación, exactamente el 4.36% de los artículos analizados fueron marcados por tener contenido generado por IA. Sin embargo, dado que los umbrales de detección se calibraron para mantener una baja tasa de falsos positivos del 1% —basada en artículos previos a GPT-3.5— las estimaciones sugieren que más del 5% de los nuevos artículos podrían ser generados por inteligencia artificial.

    Según la investigación, exactamente el 4.36% de los artículos analizados fueron marcados por tener contenido generado por IA (Foto: Adobe Stock)
    Según la investigación, exactamente el 4.36% de los artículos analizados fueron marcados por tener contenido generado por IA (Foto: Adobe Stock)

    En cuanto a los artículos de otros idiomas, el porcentaje de textos creados con IA es menor, pero también sorprendente: entre 1.5% y 4.5% en francés, 5% en alemán y entre 3% y 5% en italiano.

    Calidad inferior y sesgo

    Los artículos identificados como generados por IA a menudo presentaban una calidad inferior, carecían frecuentemente de citas y, en algunos casos, mostraban sesgos o parcialidad en temas controvertidos, reveló el informe. Esta situación abrió el debate y despertó serias dudas en la comunidad online sobre la fiabilidad y precisión de la información disponible en la enciclopedia colaborativa de internet.

    Por otra parte, el análisis cualitativo realizado por los investigadores también reveló las motivaciones detrás del uso de IA para la creación de artículos. Entre ellas se destacan la necesidad de generar contenido rápidamente, autopromoción y sumar reputación. Estas razones, aunque comprensibles en un entorno digital donde la velocidad es crucial, pueden comprometer la integridad y la objetividad del contenido.

    ¿Qué implica este descubrimiento?

    El aumento del contenido generado por IA plantea un importante desafío para el futuro de Wikipedia y su comunidad de editores. Si bien la integración de herramientas automatizadas puede facilitar la producción rápida de artículos, también conlleva riesgos relacionados con el control de calidad y la posible difusión de información sesgada.

    La comunidad académica y los usuarios deben estar alertas ante este fenómeno, y promover una mayor vigilancia sobre el contenido que se publica. La colaboración entre humanos e inteligencia artificial podría ser una solución viable, pero siempre debe priorizarse la veracidad y calidad informativa que caracteriza a Wikipedia.

    Si bien el estudio pone de relieve un notable aumento de las contribuciones de la IA, también subraya la necesidad de sólidos mecanismos de control de calidad para garantizar que se mantenga la integridad de los contenidos generados por los usuarios

    En decir, la tecnología representa tanto una oportunidad como un reto. La clave estará en encontrar un equilibrio que permita aprovechar las ventajas de estas nuevas herramientas sin sacrificar los estándares de calidad que hicieron de Wikipedia una fuente de información relevante para muchos temas.

    spot_img

    Latest articles

    spot_img

    Related articles