Descripción
El uso extendido de las Inteligencias Artificiales Generativas (IAGs) en entornos educativos y profesionales ha generado una dependencia de sus justificaciones morales, que a menudo son aceptadas sin pensamiento crítico por usuarios con baja alfabetización digital. La investigación actual suele tratar la moralidad de la IA como un conjunto de regularidades de comportamiento verbal o como una cuestión de percepción de plausibilidad humana; sin embargo, estas métricas de ingeniería de alineación ignoran que, en ética, la validez de una respuesta depende no solo del resultado ("debe" o "no debe"), sino de la naturaleza de las razones ofrecidas y la autoridad moral que proyectan.
El problema se agrava cuando se confunden los niveles de análisis descriptivo, normativo y metaético. Si una IAG produce explicaciones convincentes pero metaéticamente inconsistentes, puede moldear una relación confusa entre razones, verdad y normatividad. Por ello, esta investigación busca responder, la siguiente pregunta ¿qué supuestos metaéticos son inferibles del discurso de las IAGs y cómo puede una codificación cualitativa mejorar la evaluación de su consistencia?
| Institución | Universidad Anáhuac Querétaro |
|---|