Descripción
En los últimos años, la inteligencia artificial (IA) se ha incorporado de forma creciente a la vida cotidiana, especialmente mediante sistemas conversacionales utilizados para compartir emociones o buscar orientación inmediata. Aunque estos modelos pueden ofrecer apoyo puntual, también presentan riesgos relevantes para la salud mental, ya que tienden a confirmar las creencias del usuario sin evaluar su contexto ni aplicar criterios clínicos. En el ámbito de la psicosis, la validación automática de ideas delirantes y el aislamiento social pueden reforzar la sintomatología, lo que ha llevado a acuñar el concepto de “psicosis inducida por IA”.
Ante esta preocupación, el proyecto plantea examinar cómo el uso conversacional de la IA influye en personas con vulnerabilidad psicótica, identificar factores de riesgo y protección, y proponer estrategias de diseño responsable. Para ello se desarrollarán dos estudios complementarios. El primero consiste en un meta‑análisis destinado a sintetizar la evidencia existente y detectar lagunas conceptuales. El segundo es un estudio de simulación que analizará cómo distintos modelos de IA responden a casos clínicos simulados con diferentes niveles de delirio, riesgo contextual y desorganización del pensamiento. Mediante el análisis cualitativo y cuantitativo de las interacciones, se evaluará la capacidad de la IA para detectar síntomas psicóticos y la idoneidad de sus respuestas. El proyecto aspira así a generar evidencia que permita un uso más seguro y ético de la IA conversacional.
| Institución | Universidad Francisco de Vitoria |
|---|