
¿Pasas demasiadas horas frente a la pantalla del ordenador? ¿Sientes que los ojos te pican, te arden y, si te los frotas, se vuelven de un tono rojizo sospechoso? Lo más normal sería pensar que simplemente necesitas descansar la vista o echarte unas gotas. Pero si se te ocurre describir estos síntomas en un chatbot de Inteligencia Artificial de última generación, es muy probable que te diagnostiquen bixonimanía, una condición médica completamente ficticia que se ha convertido en el mayor troleo del año a la comunidad tecnológica y científica.
El origen de la bixonimanía: un experimento que llegó demasiado lejos
Todo empezó a principios de 2024, cuando un avispado equipo liderado por Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo (Suecia), decidió poner a prueba a los famosos modelos de lenguaje a gran escala, como ChatGPT, Gemini o Copilot. Su objetivo era bastante sencillo: comprobar si la IA era capaz de detectar desinformación médica obvia o si, por el contrario, se la tragaría sin rechistar y la presentaría como un hecho empírico.
Para tender la trampa, redactaron y subieron dos estudios completamente falsos sobre la bixonimanía a un servidor de preprints (esos archivos donde se publican artículos antes de ser revisados por pares). En cuestión de semanas, el cebo había funcionado a las mil maravillas:
- El Copilot de Microsoft aseguraba sin temblarle el pulso que la bixonimanía es
«una condición intrigante y relativamente rara»
.
- El Gemini de Google diagnosticaba con total seguridad que
«es una condición causada por una exposición excesiva a la luz azul»
.
- Incluso el todopoderoso ChatGPT de OpenAI evaluaba los síntomas de los usuarios para decirles si padecían o no esta supuesta plaga digital.

Cuando los humanos también caen de cuatro patas
Si engañar a las máquinas ya era un tema para reflexionar, lo que vino después dejó a los investigadores totalmente estupefactos. La falsa enfermedad y los dos estudios inventados por el equipo de Thunström comenzaron a aparecer citados en literatura científica revisada por pares. Sí, estudios evaluados y firmados por investigadores humanos reales de carne y hueso.
Lo más hilarante (y grave) del asunto es que los autores originales se habían esforzado muchísimo en dejar pistas gigantescas para que cualquier persona que echara un vistazo por encima se diera cuenta de que todo era una broma. Según la propia Thunström, el nombre ya era una alerta roja: «Quería dejar muy claro a cualquier médico o personal sanitario que esto es una afección inventada, porque ninguna afección ocular se llamaría ‘manía’; eso es un término psiquiátrico».
Los detalles absurdos que nadie se molestó en leer
Si el nombre no levantaba sospechas, los «estudios científicos» contenían joyas que parecían sacadas de un guion de comedia de situación:
- El autor principal firmaba como Lazljiv Izgubljenovic.
- Supuestamente, trabajaba en la inventada Asteria Horizon University, ubicada en la inexistente ciudad de Nova City, California.
- En la sección de agradecimientos, se mencionaba a la «Profesora Maria Bohm en la Academia de la Flota Estelar por su amabilidad y generosidad al aportar sus conocimientos y su laboratorio a bordo del USS Enterprise» (una clara referencia a Star Trek).
- La investigación afirmaba estar financiada por la «Fundación del Profesor Actor Secundario Bob» y una iniciativa mayor de la «Universidad de la Comunidad del Anillo y la Tríada Galáctica».
Por si a alguien le quedaban dudas, los textos incluían frases totalmente explícitas como «este artículo entero es inventado» o «se reclutó a cincuenta personas inventadas de entre 20 y 50 años para el grupo de exposición». Evidentemente, la única forma en la que esos revisores humanos pudieron dar el visto bueno a los estudios fue no leyéndolos en absoluto.
Un severo toque de atención para la ciencia y la tecnología
Aunque la historia de la bixonimanía nos saque una sonrisa, pone sobre la mesa un peligro inminente: la confianza ciega en las respuestas de los chatbots de IA y las peligrosas grietas del actual sistema de validación científica.
«Parece gracioso, pero espera, tenemos un problema aquí. Esto es una clase magistral sobre cómo operan la mala información y la desinformación. Si el proceso científico en sí mismo […] no está capturando ni filtrando fragmentos como estos, estamos perdidos», advirtió Alex Ruani, investigador doctoral del University College London en declaraciones a la revista Nature.
Así que, la próxima vez que le preguntes a la Inteligencia Artificial por qué te escuecen los ojos, ten cuidado. Podría recetarte unas gafas de descanso o, en el peor de los casos, derivarte a la enfermería del USS Enterprise para que te traten la temida bixonimanía.
