Tecnología

¿Provoca más adicción ChatGPT que la cocaína?

Un estudio en el que participa la Universitat de València expone que no hay evidencia científica de que el uso de chatbots de IA tenga las mismas consecuencias que el consumo de drogas, alcohol o juego

Aplicaciones de chatbots de IA.

Aplicaciones de chatbots de IA. / L-EMV

València

Un estudio realizado por un equipo de investigación internacional en el que participa la Universitat de València desmiente la idea de que la inteligencia artificial (IA) pueda generar una adicción similar a las drogas o al juego.

"En respuesta a un reciente alarmismo mediático que apuntaba en esta dirección, el equipo de investigación expone que no existe evidencia científica sólida que respalde la existencia de una ‘adicción a ChatGPT’ o a otros chatbots de IA", explica la UV en un comunicado sobre este estudio que ha sido publicado en la revista científica Addictive Behaviors.

Los investigadores Víctor Ciudad-Fernández (Universitat de València), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne) analizaron los estudios que intentan medir este fenómeno y descubrieron un patrón preocupante: las escalas utilizadas para evaluar la supuesta adicción a ChatGPT han sido copiadas de cuestionarios originalmente diseñados para evaluar adicciones a sustancias como el alcoholismo o la dependencia a la cocaína.

“Se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot. Es como diagnosticar adicción a bailar con los mismos criterios que la heroína”, afirma Víctor Ciudad, miembro del grupo de investigación I-PSI-TEC de la Universitat de València.

¿Qué dice realmente la ciencia?

Los autores advierten que el pánico moral ante nuevas tecnologías no es nuevo. En los últimos 100 años, titulares han alertado sobre ‘adicción a la radio’, ‘adicción a la televisión’ y ‘adicción a Internet’, todas ellas sin evidencia concluyente.

Según la investigación, los estudios que han intentado demostrar la existencia de esta ‘adicción’ no han mostrado pruebas de daño clínicamente significativo, como deterioro funcional grave o consecuencias negativas importantes en la vida de los s. En cambio, los investigadores sugieren que el uso frecuente de ChatGPT suele estar más relacionado con la curiosidad, el aprendizaje o incluso estrategias de afrontamiento.

El riesgo real está en la sobrepatologización de conductas normales. “Si todas las conductas en las que una persona se implica pueden ser consideradas adictivas, entonces todo puede ser una adicción y el término pierde su significado. Hoy en día existen artículos científicos sobre adicción al tango argentino, a la pesca o al bronceado, pero la evidencia científica que respalda estos constructos es mínima”, señala el investigador de la Universitat de València Víctor Ciudad.

Victor Ciudad

Victor Ciudad / L-EMV

Graves consecuencias

Los autores advierten que etiquetar prematuramente el uso de ChatGPT como una adicción puede tener graves consecuencias, como la estigmatización de los s, la creación de tratamientos innecesarios y la promoción de regulaciones infundadas.

Así, según los autores, “no se trata de adicción sino de cómo usamos la tecnología. Este estudio invita a un cambio de perspectiva: en lugar de patologizar el uso de herramientas de inteligencia artificial, es más importante analizar cuándo y por qué su uso se vuelve problemático”. La clave, concluyen, está en un uso consciente y regulado, evitando caer en discursos alarmistas sin base científica.

Suscríbete para seguir leyendo

Tracking Pixel Contents