La inteligencia artificial se está integrando a gran velocidad en la educación superior, pero su adopción no puede depender solo del entusiasmo tecnológico. El artículo de González-Fernández, Romero-López, Sgreccia y Latorre Medina (RIED, 2025) sitúa el debate en la necesidad de construir marcos normativos y éticos que permitan aprovechar la IA sin comprometer derechos, calidad educativa ni confianza institucional.
Desde una revisión sistemática (PRISMA) y un apoyo bibliométrico (VOSviewer), las autoras mapean el estado de la cuestión y muestran un campo todavía en consolidación, atravesado por tensiones entre innovación, integridad académica, inclusión, privacidad y sostenibilidad.
El valor del trabajo está en ordenar la evidencia disponible en cuatro grandes categorías: desafíos y riesgos éticos, marcos regulatorios, formación ética y modelos didácticos. En la primera, emergen problemas que ya están en la agenda universitaria: plagio y deshonestidad académica, sesgos algorítmicos, sobrecarga informativa, dependencia tecnológica, ansiedad y dudas sobre la autoría y la evaluación.
En la segunda, se subraya la urgencia de políticas específicas: códigos de ética, lineamientos claros sobre uso permitido/prohibido, protección de datos y transparencia en sistemas automatizados, comités de ética y evaluaciones de impacto para proyectos con IA. En paralelo, el artículo insiste en que la regulación por sí sola es insuficiente: sin alfabetización digital y ética para docentes, estudiantes y equipos directivos, las normas se vuelven papel mojado o generan un clima punitivo que empuja a usos ocultos.
La conclusión práctica es que una IA “confiable” en la universidad requiere un ecosistema que combine gobernanza, formación y pedagogía. Eso implica definir principios (equidad, responsabilidad, explicabilidad, supervisión humana, privacidad), traducirlos en procedimientos (guías de citación y atribución del uso de IA, criterios de evaluación, auditorías y revisión periódica de políticas) y diseñar experiencias de aprendizaje que fomenten pensamiento crítico, no simple sustitución de tareas.
El debate queda abierto, y el artículo lo reconoce, porque las tecnologías cambian más rápido que las instituciones; pero su aporte es claro: si la educación superior quiere integrar IA sin perder legitimidad, debe hacerlo con reglas explícitas, competencias éticas compartidas y modelos didácticos que mantengan al ser humano (y sus derechos) en el centro.
---
Cómo citar: González Fernández, M. O., Romero-López, M. A., Sgreccia, N. F., & Latorre Medina, M. J. (2025). Marcos normativos para una IA ética y confiable en la educación superior: estado de la cuestión. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 181–208. https://doi.org/10.5944/ried.28.2.43511
