Cuando la IA “inventa” enfermedades: el caso que expone los límites del conocimiento artificial

Un experimento reveló cómo sistemas de inteligencia artificial pueden validar y difundir información falsa en salud, incluso cuando contiene errores evidentes.
La irrupción de la inteligencia artificial en la vida cotidiana promete transformar múltiples ámbitos, pero también deja al descubierto sus zonas más frágiles. El caso de la “bixonimania”, una enfermedad ficticia que fue interpretada como real por distintos sistemas, funciona como una advertencia concreta sobre los riesgos de confiar ciegamente en estas herramientas, especialmente en temas sensibles como la salud.

El experimento, desarrollado por investigadores de la Universidad de Gotemburgo y liderado por Almira Osmanovic Thunström, consistió en introducir deliberadamente información falsa en internet, pero con apariencia creíble. El objetivo era medir hasta qué punto los modelos de lenguaje —los sistemas detrás de los chatbots— pueden distinguir entre contenido legítimo y fabricado.
El resultado fue contundente: plataformas como Microsoft Copilot o Google Gemini no solo reprodujeron el término, sino que lo desarrollaron como si se tratara de una condición médica real. En algunos casos, incluso lo sugirieron como posible diagnóstico frente a síntomas compatibles.
Lo más llamativo es que la “bixonimania” contenía señales claras de falsedad. Desde su nombre —terminado en “-mania”, impropio para enfermedades físicas— hasta referencias a instituciones inexistentes y guiños a la ciencia ficción, todo indicaba que se trataba de una invención. Sin embargo, los sistemas no lograron detectar esas inconsistencias.
Este punto revela un límite estructural de los modelos de lenguaje: no comprenden la veracidad de la información, sino que identifican patrones de coherencia. En otras palabras, si un contenido está bien redactado y se ajusta a formatos académicos o informativos, puede ser procesado como válido, independientemente de su autenticidad.
El problema no quedó restringido al ámbito tecnológico. El falso concepto llegó a ser citado en un artículo publicado en la revista Cureus, que luego fue retirado, lo que evidencia cómo la desinformación puede escalar desde entornos digitales hasta espacios de validación científica.
Tras la difusión del caso, analizado incluso en publicaciones como Nature, varias plataformas comenzaron a ajustar sus respuestas. Sin embargo, el episodio deja una conclusión difícil de ignorar: la inteligencia artificial puede generar respuestas convincentes incluso cuando parte de datos incorrectos.
En el campo de la salud, este límite adquiere una dimensión crítica. La posibilidad de que una persona reciba una orientación errónea, basada en información inexistente pero presentada de forma verosímil, plantea interrogantes sobre el rol de estas herramientas y la necesidad de reforzar los mecanismos de verificación.
Más que un error puntual, el caso de la bixonimania expone un desafío de fondo: cómo convivir con sistemas capaces de producir conocimiento aparente, pero no necesariamente verdadero. En esa tensión entre utilidad y riesgo, la responsabilidad ya no recae solo en la tecnología, sino también en quienes la utilizan y en los criterios con los que se decide confiar en ella.