4 de marzo de 2026

Siete roles del docente universitario para impulsar el aprendizaje colaborativo en línea

Este artículo analiza qué tareas y roles debe asumir el profesorado universitario cuando implementa aprendizaje colaborativo en línea (CSCL) en entornos virtuales, en un contexto donde la digitalización acelerada por la COVID-19 ha reconfigurado la docencia y ha evidenciado carencias en la competencia digital docente. 

A partir de la percepción del alumnado que ha vivido experiencias reales de trabajo colaborativo (104 estudiantes en cinco asignaturas de Magisterio), las autoras ponen el foco en la “orquestación” del proceso: desde el diseño instruccional y la organización del entorno virtual hasta el acompañamiento, la mediación y la evaluación. El estudio emplea un cuestionario tipo Likert y un análisis estadístico robusto (descriptivos, componentes principales y clústeres) para identificar qué funciones se consideran más relevantes.

Los resultados muestran una idea clara: el alumnado valora muy alto prácticamente todo lo que el docente hace para que el CSCL funcione, con medias elevadas en los 31 ítems analizados. Destacan especialmente las tareas con componente social y personal, como atender individualmente cuando se necesita y motivar, además de ofrecer feedback y apoyo constante; en cambio, se puntúan algo más bajo (aunque siguen siendo altas) algunas funciones más “invisibles” para el estudiante, como la formación de equipos o el diseño de instrumentos de autoevaluación. 

Mediante el análisis de componentes principales, el trabajo sintetiza esas tareas en siete roles clave: pedagógico, evaluador, social, tecnológico, orientador/mediador, organizador/gestor y personal, y detecta tres perfiles de estudiantes según el nivel de importancia concedido a esos roles (desde muy alto en todos, hasta moderado con menor peso del rol mediador y de gestión).

El valor del artículo está en que ofrece un mapa operativo y relativamente completo de roles docentes para el CSCL online, sustentado en datos y útil para diseñar programas de formación docente (no solo técnicos, sino también centrados en acompañamiento, presencia y cuidado). Su principal aporte es confirmar que, para el alumnado, el éxito del aprendizaje colaborativo virtual depende tanto de la planificación y la evaluación como sobre todo de la dimensión humana del docente en línea

Como límite, la muestra se concentra en una sola universidad y en titulaciones de Magisterio, lo que invita a replicar en otras disciplinas y contextos; aun así, la propuesta de roles resulta transferible y funciona como una guía práctica para pensar la docencia digital más allá de “usar herramientas”, enfatizando el equilibrio entre competencia tecnológica y enfoque pedagógico-humanista.

---

Cómo citar: Hernández-Sellés, N., Muñoz-Carril, P.-C., & González-Sanmamed, M. (2023). Roles del docente universitario en procesos de aprendizaje colaborativo en entornos virtuales. RIED-Revista Iberoamericana de Educación a Distancia, 26(1), 39–58. https://doi.org/10.5944/ried.26.1.34031


Seven Roles of the University Teacher to Promote Online Collaborative Learning

This article examines which tasks and roles university faculty should assume when implementing online collaborative learning (CSCL) in virtual environments, in a context where the digitalization accelerated by COVID-19 has reshaped teaching and exposed gaps in teachers’ digital competence.

Drawing on the perceptions of students who participated in real collaborative-learning experiences (104 students across five teacher-education courses), the authors focus on the “orchestration” of the process: from instructional design and the organization of the virtual environment to guidance, mediation, and assessment. The study uses a Likert-type questionnaire and robust statistical analyses (descriptive statistics, principal component analysis, and cluster analysis) to identify which functions are considered most relevant.

The findings convey a clear message: students rate almost everything teachers do to make CSCL work as highly important, with high mean scores across the 31 items analyzed. Tasks with a social and personal component stand out in particular such as providing individual support when needed and motivating students along with offering ongoing feedback and encouragement. By contrast, some functions that are more “invisible” to students, such as forming teams or designing self-assessment instruments, receive slightly lower ratings (though they are still high).

Through principal component analysis, the study consolidates these tasks into seven key roles: pedagogical, assessor/evaluator, social, technological, facilitator/mediator, organizer/manager, and personal. It also identifies three student profiles based on how much importance they assign to these roles (ranging from very high across all roles to more moderate, with less emphasis on mediation and management).

The article’s value lies in offering a practical and fairly comprehensive, data-based map of teaching roles for online CSCL useful for designing faculty development programs (not only technical training, but also preparation focused on support, presence, and care). Its main contribution is confirming that, for students, the success of virtual collaborative learning depends not only on planning and assessment but, above all, on the teacher’s human dimension online.

As a limitation, the sample comes from a single university and from teacher-education degree programs, which suggests the need to replicate the study in other disciplines and contexts. Even so, the proposed roles are transferable and serve as a practical guide for thinking about digital teaching beyond simply “using tools,” highlighting the balance between technological competence and a pedagogical-humanistic approach.

---

How to Cite: Hernández-Sellés, N., Muñoz-Carril, P.-C., & González-Sanmamed, M. (2023). Higher Education Teacher’s Roles in Collaborative Learning Processes in Virtual Environments. RIED-Revista Iberoamericana de Educación a Distancia, 26(1), 39–58. https://doi.org/10.5944/ried.26.1.34031

2 de marzo de 2026

Impacto de la IA generativa en competencias digitales universitarias: evidencia experimental basada en el marco DigComp

Este estudio analiza el impacto del uso formativo de inteligencia artificial (IA) generativa en el desarrollo de competencias digitales en estudiantes universitarios. 

La intervención se implementó mediante un ensayo controlado aleatorizado. El grupo experimental recibió formación orientada a utilizar estratégicamente modelos de IA generativa para la realización de tareas, mientras que el grupo de control completó las mismas actividades sin orientación específica sobre IA. 

El impacto se evaluó mediante un modelo de diferencias en diferencias con efectos fijos, basado en cuestionarios pre y postintervención. Las competencias se analizaron según el marco europeo DigComp 2.2, contemplándose cuatro áreas: alfabetización en información y datos, comunicación y colaboración, seguridad y resolución de problemas. 

Los resultados muestran mejoras estadísticamente significativas en alfabetización en información y datos y en resolución de problemas, tanto en su dimensión funcional como metacognitiva. Asimismo, se identificaron efectos diferenciales según el nivel inicial de competencia digital, siendo más pronunciados entre estudiantes con menor dominio previo, quienes presentan avances significativos en todas las competencias evaluadas. 

Estos hallazgos sugieren un efecto compensatorio del uso didáctico de la IA, capaz de reducir brechas y promover aprendizajes más equitativos. 

El estudio respalda la integración guiada de tecnologías emergentes en la educación superior para fortalecer las competencias digitales.

---

Cómo citar: García, C. G., & Pallarés, N. (2026). Impacto de la IA generativa en competencias digitales universitarias: evidencia experimental basada en el marco DigComp. RIED-Revista Iberoamericana de Educación a Distancia, 29(1), 53–77. https://doi.org/10.5944/ried.45533

Impact of generative AI on university students’ digital competences: experimental evidence based on the DigComp framework

This study analyzes the impact of the formative use of generative artificial intelligence (AI) on the development of digital competencies in university students. 

The intervention was implemented through a randomized controlled trial research design. The experimental group received training aimed at strategically using generative AI models to complete academic tasks, while the control group carried out the same activities without specific AI guidance. 

The impact was assessed using a difference-in-differences model with fixed effects, based on pre- and post-intervention questionnaires. Competences were analyzed according to the European DigComp 2.2 framework, covering four main competence areas: information and data literacy, communication and collaboration, safety, and problem solving. 

The results show statistically significant improvements in information and data literacy and in problem solving, both in their functional and metacognitive dimensions. Differential effects were also identified depending on the initial level of digital competence, with more pronounced gains among students with lower prior proficiency, who showed significant progress across all evaluated competencies. 

These findings suggest a compensatory effect of the didactic use of AI, capable of reducing gaps and promoting more equitable and inclusive learning processes. 

The study supports the guided integration of emerging technologies in higher education to strengthen digital competencies.      

 ---

How to Cite: García, C. G., & Pallarés, N. (2026). Impact of generative AI on university students’ digital competences: experimental evidence based on the DigComp framework. RIED-Revista Iberoamericana de Educación a Distancia, 29(1), 53–77. https://doi.org/10.5944/ried.45533

27 de febrero de 2026

¿Puede la IA ser justa, transparente y segura en la universidad?

La inteligencia artificial se está integrando a gran velocidad en la educación superior, pero su adopción no puede depender solo del entusiasmo tecnológico. El artículo de González-Fernández, Romero-López, Sgreccia y Latorre Medina (RIED, 2025) sitúa el debate en la necesidad de construir marcos normativos y éticos que permitan aprovechar la IA sin comprometer derechos, calidad educativa ni confianza institucional. 

Desde una revisión sistemática (PRISMA) y un apoyo bibliométrico (VOSviewer), las autoras mapean el estado de la cuestión y muestran un campo todavía en consolidación, atravesado por tensiones entre innovación, integridad académica, inclusión, privacidad y sostenibilidad.

El valor del trabajo está en ordenar la evidencia disponible en cuatro grandes categorías: desafíos y riesgos éticos, marcos regulatorios, formación ética y modelos didácticos. En la primera, emergen problemas que ya están en la agenda universitaria: plagio y deshonestidad académica, sesgos algorítmicos, sobrecarga informativa, dependencia tecnológica, ansiedad y dudas sobre la autoría y la evaluación. 

En la segunda, se subraya la urgencia de políticas específicas: códigos de ética, lineamientos claros sobre uso permitido/prohibido, protección de datos y transparencia en sistemas automatizados, comités de ética y evaluaciones de impacto para proyectos con IA. En paralelo, el artículo insiste en que la regulación por sí sola es insuficiente: sin alfabetización digital y ética para docentes, estudiantes y equipos directivos, las normas se vuelven papel mojado o generan un clima punitivo que empuja a usos ocultos.

La conclusión práctica es que una IA “confiable” en la universidad requiere un ecosistema que combine gobernanza, formación y pedagogía. Eso implica definir principios (equidad, responsabilidad, explicabilidad, supervisión humana, privacidad), traducirlos en procedimientos (guías de citación y atribución del uso de IA, criterios de evaluación, auditorías y revisión periódica de políticas) y diseñar experiencias de aprendizaje que fomenten pensamiento crítico, no simple sustitución de tareas. 

El debate queda abierto, y el artículo lo reconoce, porque las tecnologías cambian más rápido que las instituciones; pero su aporte es claro: si la educación superior quiere integrar IA sin perder legitimidad, debe hacerlo con reglas explícitas, competencias éticas compartidas y modelos didácticos que mantengan al ser humano (y sus derechos) en el centro.

---

Cómo citar: González Fernández, M. O., Romero-López, M. A., Sgreccia, N. F., & Latorre Medina, M. J. (2025). Marcos normativos para una IA ética y confiable en la educación superior: estado de la cuestión. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 181–208. https://doi.org/10.5944/ried.28.2.43511

Can AI Be Fair, Transparent, and Safe in the University?

Artificial intelligence is being integrated into higher education at great speed, but its adoption cannot rely solely on technological enthusiasm. The article by González-Fernández, Romero-López, Sgreccia, and Latorre Medina (RIED, 2025) places the debate on the need to build regulatory and ethical frameworks that make it possible to harness AI without compromising rights, educational quality, or institutional trust.

Through a systematic review (PRISMA) supported by bibliometric analysis (VOSviewer), the authors map the state of the art and reveal a field that is still in the process of consolidation, shaped by tensions between innovation, academic integrity, inclusion, privacy, and sustainability.

The value of the study lies in organizing the available evidence into four major categories: ethical challenges and risks, regulatory frameworks, ethical training, and didactic models. In the first category, issues already present on the university agenda emerge, such as plagiarism and academic dishonesty, algorithmic bias, information overload, technological dependence, anxiety, and uncertainties surrounding authorship and assessment.

In the second category, the urgency of specific policies is emphasized: codes of ethics, clear guidelines on permitted and prohibited uses, data protection and transparency in automated systems, ethics committees, and impact assessments for AI-related projects. At the same time, the article stresses that regulation alone is insufficient: without digital and ethical literacy for faculty, students, and leadership teams, rules risk becoming empty formalities or creating a punitive climate that pushes AI use underground.

The practical conclusion is that “trustworthy” AI in the university requires an ecosystem that combines governance, training, and pedagogy. This entails defining principles (equity, accountability, explainability, human oversight, privacy), translating them into procedures (guidelines for citation and attribution of AI use, assessment criteria, audits, and periodic policy reviews), and designing learning experiences that foster critical thinking rather than the mere substitution of tasks.

The debate remains open, as the article itself acknowledges, because technologies evolve faster than institutions. Yet its contribution is clear: if higher education seeks to integrate AI without losing legitimacy, it must do so through explicit rules, shared ethical competencies, and didactic models that keep human beings (and their rights) at the center.

---

How to Cite: González Fernández, M. O., Romero-López, M. A., Sgreccia, N. F., & Latorre Medina, M. J. (2025). Normative framework for ethical and trustworthy AI in higher education: state of the art. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 181–208. https://doi.org/10.5944/ried.28.2.43511

25 de febrero de 2026

Desarrollo y validación de la escala de Aprendizaje Autorregulado con IA (AI-SRL)

La integración de la Inteligencia Artificial (IA) en entornos educativos brinda nuevas oportunidades para mejorar el aprendizaje autorregulado (SRL) en los estudiantes. Sin embargo, las herramientas actuales carecen de precisión para evaluar cómo la IA influye en las capacidades autorregulatorias de los estudiantes. 

Este estudio presenta la Escala de Aprendizaje Autorregulado Mejorado por IA (AI-SRL), diseñada para evaluar el aprendizaje autorregulado en entornos educativos asistidos por IA. A través de un riguroso proceso de desarrollo de escala, que incluyó revisión de literatura, consulta con expertos y validación sistemática, se construyó un instrumento de medición integral. 

En el desarrollo se empleó un enfoque de validación en dos fases con muestras separadas para análisis factoriales exploratorios y confirmatorios. La escala final validada consta de 22 ítems organizados en cinco dimensiones: Competencia en IA, Conciencia de Aprendizaje, Estrategias de Aprendizaje, Implicación y Eficiencia, y Colaboración Ética. 

Estos factores capturan la naturaleza multifacética de cómo los estudiantes regulan su aprendizaje al usar herramientas de IA, desde competencia técnica hasta consideraciones éticas. 

La escala demostró sólidas propiedades psicométricas, con excelente consistencia interna y robusta validez de constructo. Este instrumento validado tiene aplicaciones prácticas para docentes que buscan optimizar la integración de IA en sus aulas, investigadores que investigan la intersección de IA y aprendizaje autorregulado, e instituciones desarrollando currículos mejorados con IA. 

La Escala AI-SRL proporciona un marco confiable para evaluar en qué medida los estudiantes aprovechan las herramientas de IA mientras mantienen sus capacidades autorregulatorias, contribuyendo así a una implementación de IA más efectiva y responsable.

---

Cómo citar: Ayaz, M. A., Karataş, F., & Yüce, E. (2026). Desarrollo y validación de la escala de Aprendizaje Autorregulado con IA (AI-SRL). RIED-Revista Iberoamericana de Educación a Distancia, 29(1), 185–216. https://doi.org/10.5944/ried.45452

Development and validation of the AI-enhanced Self-Regulated Learning (AI-SRL) scale

The integration of Artificial Intelligence (AI) into educational settings offers new opportunities for enhancing self-regulated learning (SRL) among students. However, current tools lack precision in measuring how AI influences learners' self-regulatory capabilities. 

This study introduces the AI-Enhanced Self-Regulated Learning (AI-SRL) Scale, designed to assess SRL in AI-supported educational environments. Through a rigorous scale development process involving a literature review, expert consultation, and systematic validation, we developed a comprehensive measurement instrument. 

The development employed a two-phase validation approach with separate samples for exploratory and confirmatory factor analyses. The final validated scale comprises 22 items organized into five dimensions: AI Competence, Learning Awareness, Learning Strategies, Engagement and Efficiency, and Ethical Collaboration. 

These factors capture the multifaceted nature of how students regulate their learning when using AI tools, from technical proficiency to ethical considerations. The scale demonstrated strong psychometric properties, with excellent internal consistency and robust construct validity. 

This validated instrument has practical applications for educators aiming to optimize AI integration in their classrooms, researchers investigating the intersection of AI and SRL, and institutions developing AI-enhanced curricula. 

The AI-SRL Scale provides a reliable framework for assessing how effectively students leverage AI tools while maintaining their self-regulatory capabilities, thereby contributing to more effective and responsible AI implementation.

---

How to Cite: Ayaz, M. A., Karataş, F., & Yüce, E. (2026). Development and validation of the AI-enhanced Self-Regulated Learning (AI-SRL) scale. RIED-Revista Iberoamericana de Educación a Distancia, 29(1), 185–216. https://doi.org/10.5944/ried.45452

23 de febrero de 2026

Por qué la gente abandona los MOOC (y qué puede evitarlo)

Este trabajo de Aznar-Díaz y colegas (RIED, 2025) pone el foco en una pregunta tan clásica como urgente en los MOOC: ¿por qué, si atraen a miles de personas, tan pocas llegan hasta el final? Su aportación es desplazar la mirada desde el “diseño del curso” (sin ignorarlo) hacia variables personales que suelen quedar en segundo plano: competencias sociales y emocionales, estrés percibido, expectativas y satisfacción. 

Con una muestra de 416 participantes de un MOOC de la Universidad de Granada, el equipo combina cuestionarios antes y después del curso y contrasta varios modelos de regresión logística para estimar qué pesa más a la hora de predecir la finalización. El enfoque es relevante porque, aunque el abandono en MOOC se ha discutido muchísimo, no siempre se mide con el mismo rigor qué factores “del estudiante” ayudan a explicar quién persevera.

Los resultados son interesantes por lo que confirman y por lo que matizan. En los modelos intermedios, variables como expectativas, estrés y varias dimensiones socioemocionales aparecen relacionadas con la finalización; sin embargo, cuando entra en juego la satisfacción (modelo final), esta se convierte en el predictor más robusto y “absorbe” parte de la significación de otros factores. 

Dicho de forma simple: más que empezar con buenas expectativas o con menos estrés, lo que parece marcar la diferencia es acabar percibiendo que el MOOC valió la pena (aprendizaje logrado, impacto profesional y recomendación). Aun así, la autoconciencia socioemocional se mantiene como predictor significativo incluso en el modelo completo, sugiriendo que la capacidad de reconocer y regular la propia experiencia (emociones, motivación, autorreflexión) puede ser un motor de persistencia cuando el entorno es flexible pero exige mucha autorregulación.

La lectura práctica del paper es clara: si queremos mejorar tasas de finalización, no basta con “empujar” al alumnado con recordatorios o con más contenido, sino que hay que diseñar experiencias que sostengan la satisfacción a lo largo del camino y que reduzcan fricciones emocionales típicas del aprendizaje autónomo. Aquí el artículo ofrece pistas accionables (actividades iniciales para compromiso, apoyos comunicativos, andamiaje para participación, tareas flexibles), aunque también deja límites importantes: es un diseño ex post facto (no causal), con muestreo por conveniencia y una tasa de respuesta baja, y la satisfacción se mide al final, por lo que puede estar muy ligada al hecho de completar (quien completa tiende a estar satisfecho).

Con todo, el valor del estudio está en abrir una agenda: medir y trabajar el componente socioemocional en MOOC no como “extra”, sino como parte del núcleo pedagógico que determina la permanencia.

---

Cómo citar: Aznar-Díaz, I., Ayllón-Salas, P., Fernández-Martín, F. D., & Ramos-Navas-Parejo, M. (2025). Explorando los predictores de éxito en los Cursos en Línea Masivos y Abiertos (MOOC). RIED-Revista Iberoamericana de Educación a Distancia, 28(1), 239–257. https://doi.org/10.5944/ried.28.1.40195

Why People Drop Out of MOOCs (and What Can Prevent It)

This paper by Aznar-Díaz and colleagues (RIED, 2025) focuses on a question that is as classic as it is urgent in the context of MOOCs: why, if they attract thousands of learners, do so few actually reach the end? Its main contribution lies in shifting attention away from course design alone (without ignoring it) toward personal variables that are often relegated to the background: social and emotional competencies, perceived stress, expectations, and satisfaction.

Using a sample of 416 participants from a MOOC at the University of Granada, the research team combines questionnaires administered before and after the course and tests several logistic regression models to estimate which factors weigh most heavily in predicting completion. This approach is particularly relevant because, although MOOC dropout has been widely discussed, the “learner-side” factors that help explain who persists are not always examined with the same level of rigor.

The results are noteworthy both for what they confirm and for the nuances they introduce. In the intermediate models, variables such as expectations, stress, and several socioemotional dimensions are associated with course completion; however, when satisfaction is included (final model), it becomes the most robust predictor and “absorbs” part of the statistical significance of the other factors.

Put simply, rather than starting with high expectations or lower stress, what seems to make the real difference is ending the course with the perception that the MOOC was worthwhile (in terms of learning achieved, professional impact, and willingness to recommend it). Even so, socioemotional self-awareness remains a significant predictor in the full model, suggesting that the ability to recognize and regulate one’s own experience (emotions, motivation, self-reflection) can be a key driver of persistence in environments that are flexible but demand a high degree of self-regulation.

The practical takeaway from the paper is clear: if we want to improve completion rates, it is not enough to “push” learners with reminders or additional content. What is needed is the design of learning experiences that sustain satisfaction throughout the course and reduce the emotional frictions typical of autonomous learning. The article offers actionable insights (early engagement activities, communicative support, scaffolding for participation, flexible tasks), while also acknowledging important limitations: an ex post facto (non-causal) design, convenience sampling with a low response rate, and the fact that satisfaction is measured at the end of the course, which may be closely tied to completion itself (those who complete tend to report higher satisfaction).

Overall, the value of the study lies in opening up a research and design agenda: measuring and addressing the socioemotional component of MOOCs not as an “extra,” but as a core pedagogical element that helps determine learner persistence.

---

How to Cite: Aznar-Díaz, I., Ayllón-Salas, P., Fernández-Martín, F. D., & Ramos-Navas-Parejo, M. (2025). Exploring predictors of success in Massive Open Online Courses (MOOC). RIED-Revista Iberoamericana de Educación a Distancia, 28(1), 239–257. https://doi.org/10.5944/ried.28.1.40195