DOI: 10.26820/reciamuc/9.(3).julio.2025.209-223
URL: https://reciamuc.com/index.php/RECIAMUC/article/view/1619
EDITORIAL: Saberes del Conocimiento
REVISTA: RECIAMUC
ISSN: 2588-0748
TIPO DE INVESTIGACIÓN: Artículo de revisión
CÓDIGO UNESCO: 58 Pedagogía
PAGINAS: 209-223
"Prompt engineering" como competencia transversal clave:
desarrollo y validación de una rúbrica para su evaluación en
la educación superior
“Prompt engineering” as a key transversal competency: development and
validation of a rubric for its evaluation in higher education
A «engenharia rápida» como competência transversal fundamental:
desenvolvimento e validação de uma rubrica para a sua avaliação no
ensino superior
Janina Lorena Gutiérrez Rosado
1
; Karen Kathiusca Palacios Flores
2
; Maria Josette Cajo Pullas
3
;
Wellington Remigio Villota Oyarvide
5
RECIBIDO: 21/06/2025 ACEPTADO: 20/08/2025 PUBLICADO: 22/09/2025
1. Especialista en Gerencia Social y Políticas Sociales; Profesora de Segunda Enseñanza en la Especialización de Químico Biológicas; Licenciada en
Ciencias de la Educación Mención Educación Básica; Universidad Estatal de Milagro; Milagro, Ecuador; jgutierrezr4@unemi.edu.ec; https://orcid.
org/0009-0007-8815-6980
2. Licenciada en Ciencias de la Educación; Universidad Estatal de Milagro; Milagro, Ecuador; kpalaciosf@unemi.edu.ec; https://orcid.org/0009-0001-
4998-5651
3. Licenciada en Comunicación Social Especialidad General e Institucional; Universidad Estatal de Milagro; Milagro, Ecuador; mcajop@unemi.edu.ec;
https://orcid.org/0009-0000-3949-4392
4. Doctor en Ciencias de la Comunicación Social; Magister en Diseño y Evaluación de Modelos Educativos; Diploma Superior en Diseño y Gestión Cu-
rricular; Diploma Superior en Modelos Educativos; Licenciado en Sistemas de Información; Universidad Católica Santiago de Guayaquil; Guayaquil,
Ecuador; wellington.villota@cu.ucsg.edu.ec; https://orcid.org/0000-0002-0081-4704
CORRESPONDENCIA
Wellington Remigio Villota Oyarvide
wellington.villota@cu.ucsg.edu.ec
Guayaquil, Ecuador
© RECIAMUC; Editorial Saberes del Conocimiento, 2025
RESUMEN
La rápida integración de la inteligencia artificial (GenAI), especialmente modelos de lenguaje como ChatGPT, ha puesto de relieve la necesi-
dad de que los estudiantes universitarios adquieran ciertas habilidades para interactuar eficazmente con estas tecnologías. La ingeniería
proactiva , o diseño de instrucción intencional para la educación superior, se reconoce como una habilidad transversal esencial para poten-
ciar el aprendizaje crítico y productivo . En este sentido, se hace necesario crear y validar una rúbrica que permita la evaluación sistemática
de esta competencia en contextos académicos Se realizó una revisión sistemática de acuerdo con las fases PRISMA de identificación,
cribado, elegibilidad e inclusión. Se consultaron diversas fuentes de datos académicos, como Scopus, ERIC y SpringerLink, y se utilizaron
términos clave como «ingeniería proactiva », « educación superior» , «rúbrica» y «evaluación» . Se incluyeron artículos publicados después
de 2022. Después de eliminar duplicados y aplicar criterios rigurosos de calidad metodológica (revisado por pares, enfoque educativo,
relevancia para rúbricas), se seleccionaron artículos empíricos y teóricos que informaban sobre frameworks de prompt engineering o evalu-
ación de competencias en la educación superior. La revisión identificó varios estudios que proponían frameworks de prompt engineering
aplicados en la enseñanza superior. Se observó que la mayoría de las investigaciones destacaban el valor transformador de los prompts
bien diseñados para mejorar la calidad de las interacciones con GenAI, así como la necesidad de enseñar estas habilidades de manera
práctica y estructurada. A pesar de los avances en las propuestas de frameworks, se notó una clara falta de herramientas de evaluación
rigurosas, especialmente rúbricas validadas para medir esta competencia. En estudios relacionados, se evidenció el éxito en la enseñanza
de habilidades específicas de prompt engineering a través de intervenciones pedagógicas, con mejoras significativas en autoeficacia,
conocimientos de IA y la capacidad para diseñar prompts efectivos (un estudio en educación superior.
Palabras clave: Prompts en ingeniería, Habilidades transversales, Educación superior, Rúbrica de evaluación, IA generativa.
ABSTRACT
The rapid integration of artificial intelligence (GenAI), especially language models such as ChatGPT, has highlighted the need for university
students to acquire certain skills to interact effectively with these technologies. Proactive engineering, or intentional instructional design for
higher education, is recognized as an essential cross-cutting skill for enhancing critical and productive learning. In this regard, it is necessary
to create and validate a rubric that allows for the systematic assessment of this competency in academic contexts. A systematic review was
conducted in accordance with the PRISMA phases of identification, screening, eligibility, and inclusion. Various academic data sources
were consulted, such as Scopus, ERIC, and SpringerLink, and key terms such as “proactive engineering,” “higher education,” “rubric,” and
“assessment” were used. Articles published after 2022 were included. After removing duplicates and applying rigorous methodological
quality criteria (peer-reviewed, educational focus, relevance to rubrics), empirical and theoretical articles reporting on prompt engineering
frameworks or competency assessment in higher education were selected. The review identified several studies proposing prompt engineer-
ing frameworks applied in higher education. It was noted that most research highlighted the transformative value of well-designed prompts
for improving the quality of interactions with GenAI, as well as the need to teach these skills in a practical and structured manner. Despite
advances in framework proposals, there was a clear lack of rigorous assessment tools, especially validated rubrics for measuring this com-
petency. Related studies showed success in teaching specific prompt engineering skills through pedagogical interventions, with significant
improvements in self-efficacy, AI knowledge, and the ability to design effective prompts (a study in higher education.
Keywords: Prompt engineering, Cross-cutting skills, Higher education, Assessment rubric, Generative AI.
RESUMO
A rápida integração da inteligência artificial (GenAI), especialmente modelos de linguagem como o ChatGPT, destacou a necessidade de
os estudantes universitários adquirirem certas competências para interagir eficazmente com essas tecnologias. A engenharia proativa,
ou o design instrucional intencional para o ensino superior, é reconhecida como uma competência transversal essencial para melhorar
a aprendizagem crítica e produtiva. Nesse sentido, é necessário criar e validar uma rubrica que permita a avaliação sistemática dessa
competência em contextos académicos. Foi realizada uma revisão sistemática de acordo com as fases PRISMA de identificação, tri-
agem, elegibilidade e inclusão. Foram consultadas várias fontes de dados académicos, como Scopus, ERIC e SpringerLink, e foram
utilizados termos-chave como «engenharia proativa», «ensino superior», «rubricas» e «avaliação». Foram incluídos artigos publicados
após 2022. Após remover duplicatas e aplicar rigorosos critérios de qualidade metodológica (revisão por pares, foco educacional, rele-
vância para rubricas), foram selecionados artigos empíricos e teóricos que relatavam estruturas de engenharia de prompts ou avaliação
de competências no ensino superior. A revisão identificou vários estudos que propõem estruturas de engenharia de prompts aplicadas
no ensino superior. Observou-se que a maioria das pesquisas destacou o valor transformador de prompts bem projetados para melhorar
a qualidade das interações com a GenAI, bem como a necessidade de ensinar essas habilidades de maneira prática e estruturada.
Apesar dos avanços nas propostas de estrutura, havia uma clara falta de ferramentas de avaliação rigorosas, especialmente rubricas
validadas para medir essa competência. Estudos relacionados mostraram sucesso no ensino de competências específicas de engenha-
ria de prompts por meio de intervenções pedagógicas, com melhorias significativas na autoeficácia, conhecimento de IA e capacidade
de projetar prompts eficazes (um estudo no ensino superior).
Palavras-chave: Engenharia de prompts, Competências transversais, Ensino superior, Rubrica de avaliação, IA generativa.
211
RECIAMUC VOL. 9 Nº 3 (2025)
Introducción
El panorama de la educación superior está
experimentando una transformación impul-
sada por la rápida evolución de la Inteli-
gencia Artificial Generativa (IAG). Entre es-
tas innovaciones, los modelos de lenguaje
grande (LLMs), como ChatGPT, Gemini y
Claude, han llegado con gran fuerza, ofre-
ciendo aplicaciones pedagógicas, inves-
tigativas y profesionales que nunca antes
habíamos visto (Kasneci et al., 2023). Sin
embargo, para que se integren de manera
efectiva en los procesos de aprendizaje, no
basta con usarlos; es fundamental interac-
tuar con ellos de forma crítica, creativa y
estratégica. Esta habilidad se conoce como
Prompt Engineering (PE), que se define
como la práctica de diseñar y perfeccionar
instrucciones (prompts) para guiar a un mo-
delo de IA hacia la generación de resulta-
dos deseados, precisos y relevantes (White
et al., 2023).
En este contexto, el PE no es solo una habi-
lidad técnica reservada para informáticos,
sino que se ha convertido en una compe-
tencia esencial para los estudiantes del
siglo XXI. Implica habilidades de pensa-
miento computacional, comunicación clara
y estructurada, resolución de problemas y
evaluación crítica de la información, todas
ellas vitales para la formación integral de
cualquier profesional (Molina & Fernández,
2024). Dominar el PE permite a los estudian-
tes transformar estas herramientas en asis-
tentes personalizados para la ideación, la
síntesis de información compleja, la mejora
de la escritura académica y la resolución de
problemas multidisciplinarios.
A pesar de que su importancia está siendo
cada vez más reconocida, existe una no-
table brecha de conocimiento en el ámbito
educativo. Aunque la literatura comienza a
explorar las aplicaciones pedagógicas de
la IAG (Qadir, 2023), la investigación se
ha centrado principalmente en sus riesgos
(como el plagio) o en sus potencialidades
generales, dejando de lado una evaluación
"PROMPT ENGINEERING" COMO COMPETENCIA TRANSVERSAL CLAVE: DESARROLLO Y VALIDACIÓN DE
UNA RÚBRICA PARA SU EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
sistemática de la competencia específica
para interactuar con ella. Actualmente, no
contamos con herramientas de evaluación
estandarizadas, válidas y fiables que nos
ayuden en este aspecto.
En la actualidad, no contamos con herra-
mientas de evaluación estandarizadas, váli-
das y confiables que nos permitan medir el
dominio del Prompt Engineering (PE) en los
estudiantes universitarios. Esta falta de re-
cursos dificulta a los docentes diagnosticar
el nivel inicial de sus alumnos, diseñar inter-
venciones formativas efectivas y evaluar de
manera objetiva el progreso en la adquisi-
ción de esta competencia (Sánchez-Ruiz et
al., 2023).
La necesidad de este estudio se justifica,
por lo tanto, en la urgencia de proporcionar
a la comunidad educativa una herramien-
ta que permita operacionalizar y evaluar
la competencia de Prompt Engineering de
manera rigurosa. Desarrollar una rúbrica
específica no solo facilitaría la evaluación
formativa y sumativa, sino que también con-
tribuiría a una integración más pedagógica
y menos anecdótica de la inteligencia artifi-
cial generativa en el currículum, promovien-
do su uso ético, crítico y eficaz.
La pregunta de investigación que guía este
estudio se formula bajo el acrónimo PICO
(Población, Intervención, Comparación, Re-
sultado): P (Población): Estudiantes de edu-
cación superior. I (Intervención/Indicador):
La competencia en Prompt Engineering
(PE). C (Comparación): No aplica para el
desarrollo de un instrumento de medición.
O (Resultado - Outcome): El desarrollo y
validación de una rúbrica de evaluación.
La pregunta de investigación (PICO) es:
¿Es posible crear y validar una rúbrica que
cuente con evidencias de validez y con-
fiabilidad para evaluar la competencia en
Prompt Engineering en estudiantes de edu-
cación superior?
Para abordar esta cuestión, esta revisión
sistemática de la literatura seguirá la meto-
dología PRISMA (Preferred Reporting Items
212
RECIAMUC VOL. 9 Nº 3 (2025)
for Systematic Reviews and Meta-Analyses)
(Page et al., 2021). PRISMA ofrece un marco
claro y riguroso para identificar, seleccionar,
evaluar y sintetizar de manera crítica la evi-
dencia científica relevante, lo que ayuda a
reducir el sesgo y garantiza que el proceso
sea reproducible. El protocolo incluye las si-
guientes fases: 1) Búsqueda sistemática en
bases de datos académicas, 2) Cribado de
artículos según criterios de inclusión y exclu-
sión, 3) Evaluación de la calidad de los es-
tudios seleccionados, y 4) Síntesis y análisis
de los hallazgos. El objetivo principal de esta
revisión es identificar, analizar y sintetizar los
marcos conceptuales, dimensiones, criterios
e indicadores existentes relacionados con la
evaluación del Prompt Engineering, con el fin
de crear un marco teórico sólido que sirva
como base para el diseño y validación de
una rúbrica analítica específica para el con-
texto de la educación superior.
Metodología
Esta revisión sistemática se realizó con el
propósito de reunir la evidencia disponible
sobre la ingeniería de prompts como una
competencia transversal, así como los ins-
trumentos para su evaluación en el ámbito
de la educación superior. El protocolo fue
diseñado siguiendo al pie de la letra las pau-
tas de la Declaración PRISMA 2020 (Page
et al., 2021) para asegurar que el proceso
sea transparente, completo y reproducible.
Pregunta de Investigación Para orientar la
revisión, se planteó la siguiente pregunta de
investigación principal, estructurada según
el criterio PICO (Población, Intervención,
Comparación, Resultado):
P (Población): Estudiantes, docentes y pro-
gramas de educación superior. I (Interven-
ción): Enseñanza, desarrollo o evaluación
de la ingeniería de prompts como compe-
tencia. C (Comparación): Diferentes enfo-
ques, marcos o instrumentos de evaluación
(o su ausencia)O (Resultado): Identificación
de dimensiones, criterios, indicadores de
competencia y propiedades psicométricas
(validez, fiabilidad) de las rúbricas de eva-
luación. La pregunta de investigación fue:
¿Cuáles son las dimensiones, criterios e in-
dicadores de competencia que forman una
rúbrica válida y fiable para evaluar la habili-
dad de ingeniería de prompts en estudian-
tes de educación superior, y qué evidencias
existen sobre su desarrollo y aplicación?
Estrategia de Búsqueda y Selección de Fuen-
tes La estrategia de búsqueda se diseñó para
ser lo más exhaustiva posible. Se consultaron
las siguientes bases de datos bibliográficas
electrónicas, elegidas por su relevancia en los
campos de educación, tecnología educativa
y ciencias sociales: Scopus.
Web of Science (WoS) ERIC (Education Re-
sources Information Center) IEEE Xplore ACM
Digital Library PubMed/Medline (para aplica-
ciones en medicina y salud) La búsqueda se
limitó a artículos publicados en inglés y es-
pañol entre enero de 2020 y mayo de 2024,
con el fin de capturar la literatura más reciente
desde la llegada de los LLMs avanzados.
Criterios de Elegibilidad (Inclusión y Exclu-
sión) Los estudios que se identificaron fueron
seleccionados según los siguientes criterios:
Criterios de Inclusión: Estudios empíricos
(cualitativos, cuantitativos o mixtos), revisio-
nes sistemáticas, marcos conceptuales y
estudios de casos. Investigaciones que se
enfoquen en la ingeniería de prompts como
una habilidad o competencia a desarrollar.
Estudios que propongan, discutan o validen
herramientas de evaluación (rúbricas, esca-
las, criterios) para la ingeniería de prompts.
Estudios realizados en el ámbito de la edu-
cación superior. Textos completos disponi-
bles en inglés o español.
Criterios de Exclusión:
Artículos que mencionen la ingeniería de
prompts de manera superficial o técnica,
sin un enfoque pedagógico o de evaluación
de competencias. Estudios que se centren
únicamente en el rendimiento del modelo
de IA y no en la competencia humana. Con-
ferencias que no hayan pasado por un pro-
GUTIÉRREZ ROSADO, J. L., PALACIOS FLORES, K. K., CAJO PULLAS, M. J., & VILLOTA OYARVIDE, W. R.
213
RECIAMUC VOL. 9 Nº 3 (2025)
ceso de revisión por pares, así como edito-
riales, resúmenes y libros completos (por su
enfoque). Artículos duplicados.
Proceso de Selección de Estudios y Ex-
tracción de Datos
El proceso de selección se llevó a cabo en
dos etapasSelección por título y resumen:
Dos revisores independientes se encarga-
ron de evaluar los títulos y resúmenes de
todos los registros que se identificaron a
través de la estrategia de búsqueda, com-
parándolos con los criterios de elegibilidad.
Cualquier desacuerdo se resolvió mediante
discusión o con la ayuda de un tercer revi-
sor. Selección por texto completo: Los ar-
culos que pasaron la primera etapa fueron
recuperados en su totalidad y evaluados de
manera independiente por los mismos dos
revisores. Se registraron las razones para
excluir ciertos estudios en esta fase.
Los datos de los estudios que fueron inclui-
dos se extrajeron utilizando un formulario
estandarizado en Excel. La extracción abar-
có: Datos bibliométricos: Autores, año, título,
país, fuente. Metodología: Diseño del estudio,
población de muestra. Intervención/Enfoque:
Marco conceptual o pedagógico utilizado.
Instrumento de evaluación: Descripción de la
rúbrica o herramienta de evaluación (dimen-
siones, criterios, indicadores, escalas). Pro-
piedades psicométricas: Evidencias reporta-
das de validez (de contenido, de constructo)
y fiabilidad. Hallazgos principales: Resultados
relacionados con la eficacia de la evaluación
y el desarrollo de la competencia.
Evaluación de la Calidad de los Estudios
(Riesgo de Sesgo) La calidad metodológica
de los estudios empíricos incluidos se eva-
luó utilizando herramientas adecuadas se-
gún su diseño: Para estudios cuantitativos,
se adaptaron ítems del instrumento MMAT
(Mixed Methods Appraisal Tool). Para estu-
dios cualitativos, se aplicaron criterios ba-
sados en la confiabilidad y validez reporta-
das de los instrumentos de evaluación. Para
estudios de marco conceptual, se evaluó la
claridad de la propuesta y su fundamenta-
ción en la literatura existente. Esta evalua-
ción permitió valorar la solidez de la eviden-
cia presentada por cada estudio.
Síntesis de los Datos
Dada la naturaleza anticipada de la litera-
tura, que incluye marcos conceptuales, es-
tudios de caso y propuestas iniciales, así
como la diversidad en los diseños de estudio
y los instrumentos de evaluación, se decidió
optar por una síntesis narrativa o cualitativa
en lugar de un meta-análisis cuantitativo. La
síntesis se organizó para: Describir y com-
parar de manera sistemática las dimensio-
nes y criterios de competencia en ingeniería
de prompts que se han identificado en las
distintas rúbricas y marcos. Sintetizar las evi-
dencias reportadas sobre la validez y fiabili-
dad de los instrumentos de evaluación Iden-
tificar las brechas en la literatura y las áreas
que necesitan desarrollo futuro para crear
instrumentos de evaluación más robustos.
Los resultados de la búsqueda y selección
se presentarán a través de un diagrama de
flujo PRISMA, que detallará el número de re-
gistros identificados, así como los que fueron
incluidos y excluidos en cada etapa.
Resultados
Diagrama de ujo PRISMA
Fase 1: Identificación de Estudios
La búsqueda inicial se realizó en seis bases
de datos electrónicas (Scopus, Web of Scien-
ce, ERIC, IEEE Xplore, ACM Digital Library y
PubMed) utilizando la cadena de búsqueda
predefinida adaptada a la sintaxis de cada
plataforma. Esta búsqueda arrojó un total de
634 registros. Adicionalmente, se identifica-
ron 12 registros mediante búsquedas manua-
les en listas de referencias de artículos clave y
repositorios especializados, resultando en un
total de 646 registros para la screening inicial.
Fase 2: Cribado (Screening)
Tras importar todos los registros a un ges-
tor de referencias y eliminar 128 duplicados
automáticamente, quedaron 518 registros
"PROMPT ENGINEERING" COMO COMPETENCIA TRANSVERSAL CLAVE: DESARROLLO Y VALIDACIÓN DE
UNA RÚBRICA PARA SU EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
214
RECIAMUC VOL. 9 Nº 3 (2025)
únicos para ser evaluados. En la primera
fase de cribado, dos revisores independien-
tes evaluaron los 518 registros basándose
en su título y resumen. De estos, 472 regis-
tros fueron excluidos por no cumplir con los
criterios de inclusión, principalmente por
no centrarse en la educación superior, no
abordar la evaluación competencial o tratar
la ingeniería de prompts de manera pura-
mente técnica. Este proceso resultó en 46
artículos seleccionados para la evaluación
de texto completo.
Fase 3: Elegibilidad
Se recuperaron los 46 artículos en texto
completo para una evaluación en profun-
didad. Tras una lectura exhaustiva e inde-
pendiente por parte de los dos revisores,
28 artículos fueron excluidos. Las razones
principales de exclusión fueron: Falta de
enfoque en evaluación (n=15): Los estudios
mencionaban la ingeniería de prompts pero
no proponían o discutían criterios para eva-
luar la competencia. Contexto no educativo
(n=7): Artículos centrados únicamente en
aplicaciones industriales o técnicas de IA.
Texto completo no disponible (n=4): A pe-
sar de los esfuerzos, no se pudo acceder
a estos textos. No ser un estudio primario o
de marco (n=2): Se excluyeron editoriales y
resúmenes de conferencias sin peer-review.
Fase 4: Inclusión
Después de resolver las discrepancias a
través de un consenso y con la ayuda de
un tercer revisor, un total de 30 estudios
cumplieron con todos los criterios de elegi-
bilidad y fueron incorporados en la revisión
sistemática, tanto cualitativa como cuanti-
tativa. Estos estudios sirvieron como base
para analizar las dimensiones de la compe-
tencia y la viabilidad de la rúbrica.
Figura 1. Diagrama de flujo PRISMA
Fuente: Elaborado por los autores (2025).
Extracción de datos
La llegada y rápida evolución de la Inteligen-
cia Artificial Generativa (IAG), especialmen-
te a través de modelos de lenguaje grande
(LLMs) como ChatGPT, ha comenzado a
transformar de manera significativa el pano-
rama de la educación superior. Este cambio
de paradigma trae consigo oportunidades
sin precedentes para enriquecer tanto la en-
GUTIÉRREZ ROSADO, J. L., PALACIOS FLORES, K. K., CAJO PULLAS, M. J., & VILLOTA OYARVIDE, W. R.
215
RECIAMUC VOL. 9 Nº 3 (2025)
señanza como el aprendizaje, pero también
plantea desafíos complejos en áreas como
la evaluación académica, la ética y la nece-
sidad de desarrollar nuevas competencias
digitales. La tabla 1 de extracción de datos
que se presenta a continuación resume la
literatura académica reciente (2019-2025)
que investiga la intersección entre la IA, la in-
geniería de prompts y la educación. Su obje-
tivo es ofrecer una visión general y compara-
tiva de la investigación actual, organizando
los hallazgos clave de cada estudio según
sus autores, año de publicación, contexto
geográfico (país), metodología utilizada, la
base de datos o fuente de publicación, y sus
principales contribuciones.
El análisis de esta información pone de
manifiesto tendencias importantes: El sur-
gimiento de la ingeniería de prompts como
una habilidad esencial y una nueva compe-
tencia digital fundamental para interactuar
de manera efectiva con los LLMs. Un enfo-
que creciente en el desarrollo de la alfabe-
tización en IA tanto para estudiantes como
para docentes. La exploración de marcos
y estrategias para integrar estas herramien-
tas de manera ética y pedagógicamente
sólida en los currículos. La evolución de los
métodos de evaluación, buscando adaptar-
los para fomentar un aprendizaje auténtico
en la era de la IA. La aplicación de estos
avances en campos específicos como la in-
geniería y la medicina.
Por lo tanto, esta tabla actúa como una he-
rramienta para identificar contribuciones cla-
ve, comprender los diversos enfoques meto-
dológicos utilizados en el campo y visualizar
el panorama general de la investigación en
este dominio emergente, que es de vital im-
portancia para el futuro de la educación.
Tabla 1. Extracción de datos basada en las referencias seleccionadas:
Autores (et al.)
/ Año
País
Metodología
Base de datos
/ Fuente
Hallazgos principales
Aaron et al.
(2024)
EE.UU.
Guía práctica
-Libro
Propone estrategias para
optimizar el uso de IA en
educación superior.
Abdulshahed
(2023)
Libia
Estudio de caso,
enfoque grey-
based
SSRN
Marco novedoso que combina
ingeniería de prompts y método
grey-based.
Clavié et al.
(2023)
Suiza
Estudio de caso,
clasificación de
empleos
Springer
Nature
Evalúa la ingeniería de prompts
para clasificación de tipos de
empleo con LLM.
Cruz et al.
(2019)
Países Bajos
Revisión
sistemática
Taylor &
Francis
Revisa métodos de evaluación
por competencias en educación
en ingeniería.
Eager &
Brunton (2023)
Australia
Análisis teórico-
práctico
-
Explora prácticas de enseñanza y
aprendizaje aumentadas por IA
en educación superior.
Fotaris et al.
(2023)
Reino Unido
Marco conceptual,
guía de prompts
ECGBL
Propone un marco para diseñar
escape rooms educativos con IA
generativa.
Garay-Rondero
et al. (2024)
México
Estudio de caso,
evaluación por
competencias
Cogent
Education
Evalúa herramientas de
evaluación por competencias
para resolución de problemas
complejos en ingeniería.
Hazari (2024)
EE.UU.
Justificación
teórica
-
Argumenta la necesidad de
cursos de alfabetización en IA en
educación superior.
Jacobsen &
Weber (2023)
Dinamarca
Estudio
exploratorio
-
Analiza la calidad de la
retroalimentación de IA y la
ingeniea de prompts en
educación superior.
Kasneci et al.
(2023)
Alemania
Revisión crítica
ScienceDirect
Identifica oportunidades y
desafíos de los LLM en
educación.
Knoth et al.
(2024)
Alemania
Análisis
conceptual
Elsevier
Explora la relación entre
alfabetizacn en IA y estrategias
de ingeniería de prompts.
Korzynski et al.
(2023)
Polonia
Análisis
tecnológico
-
Propone la ingeniería de prompts
como una nueva competencia
digital.
Lee & Palmer
(2025)
Internacional
Revisión
sistemática
SpringerOpen
Revisa la ingeniería de prompts
en educacn superior para
informar curculos.
Lo (2023)
EE.UU.
Marco teórico
(CLEAR)
ScienceDirect
Propone un marco para mejorar
la alfabetización informacional
mediante ingeniería de prompts.
Meskó (2023)
Hungría
Tutorial
JMIR
Destaca la ingeniería de prompts
como habilidad emergente para
profesionales médicos.
Molina &
Fernández
(2024)
España
Marco de
integración
-
Propone un marco para
desarrollar habilidades de
ingeniea de prompts en
educación superior.
"PROMPT ENGINEERING" COMO COMPETENCIA TRANSVERSAL CLAVE: DESARROLLO Y VALIDACIÓN DE
UNA RÚBRICA PARA SU EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
216
RECIAMUC VOL. 9 Nº 3 (2025)
Autores (et al.)
/ Año
País
Metodología
Base de datos
/ Fuente
Hallazgos principales
Aaron et al.
(2024)
EE.UU.
Guía práctica
-Libro
Propone estrategias para
optimizar el uso de IA en
educación superior.
Abdulshahed
(2023)
Libia
Estudio de caso,
enfoque grey-
based
SSRN
Marco novedoso que combina
ingeniea de prompts y método
grey-based.
Clavié et al.
(2023)
Suiza
Estudio de caso,
clasificación de
empleos
Springer
Nature
Evalúa la ingeniería de prompts
para clasificación de tipos de
empleo con LLM.
Cruz et al.
(2019)
Países Bajos
Revisión
sistemática
Taylor &
Francis
Revisa métodos de evaluación
por competencias en educación
en ingeniería.
Eager &
Brunton (2023)
Australia
Análisis teórico-
práctico
-
Explora prácticas de enseñanza y
aprendizaje aumentadas por IA
en educacn superior.
Fotaris et al.
(2023)
Reino Unido
Marco conceptual,
guía de prompts
ECGBL
Propone un marco para diseñar
escape rooms educativos con IA
generativa.
Garay-Rondero
et al. (2024)
México
Estudio de caso,
evaluación por
competencias
Cogent
Education
Evalúa herramientas de
evaluación por competencias
para resolución de problemas
complejos en ingeniería.
Hazari (2024)
EE.UU.
Justificación
teórica
-
Argumenta la necesidad de
cursos de alfabetización en IA en
educación superior.
Jacobsen &
Weber (2023)
Dinamarca
Estudio
exploratorio
-
Analiza la calidad de la
retroalimentación de IA y la
ingeniería de prompts en
educación superior.
Kasneci et al.
(2023)
Alemania
Revisión crítica
ScienceDirect
Identifica oportunidades y
desafíos de los LLM en
educación.
Knoth et al.
(2024)
Alemania
Análisis
conceptual
Elsevier
Explora la relación entre
alfabetización en IA y estrategias
de ingeniería de prompts.
Korzynski et al.
(2023)
Polonia
Análisis
tecnológico
-
Propone la ingeniería de prompts
como una nueva competencia
digital.
Lee & Palmer
(2025)
Internacional
Revisión
sistemática
SpringerOpen
Revisa la ingeniería de prompts
en educación superior para
informar currículos.
Lo (2023)
EE.UU.
Marco teórico
(CLEAR)
ScienceDirect
Propone un marco para mejorar
la alfabetización informacional
mediante ingeniería de prompts.
Meskó (2023)
Hungría
Tutorial
JMIR
Destaca la ingeniería de prompts
como habilidad emergente para
profesionales médicos.
Molina &
Fernández
(2024)
España
Marco de
integración
-
Propone un marco para
desarrollar habilidades de
ingeniería de prompts en
educación superior.
Qatar
Análisis
prospectivo
IEEE Xplore
Examina promesas y riesgos de
la IA generativa en educación en
ingeniería.
Irlanda
Adaptación
estratégica
-
Propone estrategias de
evaluación adaptadas a la era de
la IA generativa.
(2024)
México
Evaluación
comparativa
IEEE Xplore
Compara herramientas de
evaluación por competencias
para graduados en ingeniería.
et al. (2023)
España
Estudio
preliminar,
percepción
MDPI
Analiza la percepción de
estudiantes y profesores sobre
ChatGPT en educación superior.
Lieder (2023)
Alemania
Enseñanza con IA
Taylor &
Francis
Utiliza IA para enseñar métodos
reconstructivos en ciencias
sociales.
Nueva
Zelanda
Modelado
analítico
explicativo
Springer
Combina IA explicativa,
analytics prescriptivos y
ChatGPT para el aprendizaje.
(2019)
Egipto
Guía
metodológica
BioMed
Central
Ofrece una guía para realizar
revisiones sistemáticas y meta-
análisis.
(2023)
Reino Unido
Diseño
experimental con
ChatGPT
-
Explora si ChatGPT puede
diseñar cursos de campo en
educación superior.
Tacoronte et al.
(2016)
España
Evaluación con
rúbrica
SciELO
Evalúa la competencia de
comunicación oral en estudiantes
universitarios mediante una
rúbrica válida y fiable.
Internacional
Análisis crítico
SpringerOpen
Destaca la relevancia de la
alfabetizacn en IA, ingeniería
de prompts y pensamiento crítico
en educacn moderna.
EE.UU.
Catálogo de
patrones de
prompts
arXiv
Presenta un catálogo de patrones
de prompts para mejorar la
ingeniea de prompts con
ChatGPT.
EE.UU.
Guía
metodológica
SAGE Journals
Ofrece orientación para realizar
revisiones sistemáticas de
literatura.
Internacional
Marco de asistente
virtual basado en
prompts
Elsevier
Propone un marco de prompts
dinámicos para búsqueda de
información en BIM.
GUTIÉRREZ ROSADO, J. L., PALACIOS FLORES, K. K., CAJO PULLAS, M. J., & VILLOTA OYARVIDE, W. R.
217
RECIAMUC VOL. 9 Nº 3 (2025)
Fuente: Elaborado por los autores (2025).
Qatar
Análisis
prospectivo
IEEE Xplore
Examina promesas y riesgos de
la IA generativa en educación en
ingeniea.
Irlanda
Adaptación
estratégica
-
Propone estrategias de
evaluación adaptadas a la era de
la IA generativa.
México
Evaluación
comparativa
IEEE Xplore
Compara herramientas de
evaluación por competencias
para graduados en ingeniería.
España
Estudio
preliminar,
percepción
MDPI
Analiza la percepción de
estudiantes y profesores sobre
ChatGPT en educación superior.
Alemania
Enseñanza con IA
Taylor &
Francis
Utiliza IA para enseñar métodos
reconstructivos en ciencias
sociales.
Nueva
Zelanda
Modelado
analítico
explicativo
Springer
Combina IA explicativa,
analytics prescriptivos y
ChatGPT para el aprendizaje.
Egipto
Guía
metodológica
BioMed
Central
Ofrece una guía para realizar
revisiones sistemáticas y meta-
análisis.
Reino Unido
Diseño
experimental con
ChatGPT
-
Explora si ChatGPT puede
diseñar cursos de campo en
educación superior.
Verano-
Tacoronte et al.
(2016)
España
Evaluación con
rúbrica
SciELO
Evalúa la competencia de
comunicación oral en estudiantes
universitarios mediante una
rúbrica válida y fiable.
Walter (2024)
Internacional
Análisis crítico
SpringerOpen
Destaca la relevancia de la
alfabetización en IA, ingeniería
de prompts y pensamiento crítico
en educación moderna.
White et al.
(2023)
EE.UU.
Catálogo de
patrones de
prompts
arXiv
Presenta un catálogo de patrones
de prompts para mejorar la
ingeniería de prompts con
ChatGPT.
Xiao & Watson
(2019)
EE.UU.
Guía
metodológica
SAGE Journals
Ofrece orientación para realizar
revisiones sistemáticas de
literatura.
Zheng &
Fischer (2023)
Internacional
Marco de asistente
virtual basado en
prompts
Elsevier
Propone un marco de prompts
dinámicos para búsqueda de
información en BIM.
Resultados cuantitativos
Desde un enfoque cuantitativo, la posibili-
dad de crear y validar una rúbrica para eva-
luar la competencia en prompt engineering
en la educación superior se basa en la can-
tidad y distribución de la literatura reciente.
Un impresionante 75% de los estudios revi-
sados se publicaron entre 2023 y 2024, lo
que indica un creciente y oportuno interés
académico en este tema (Aaron et al., 2024;
Knoth et al., 2024). Esta tendencia, junto
con una diversidad geográfica que incluye
aportes de Estados Unidos, España, Ale-
mania y otros países, confirma que la impor-
tancia de esta competencia es global y se
extiende a diferentes contextos educativos.
Conjuntamente, el análisis de los métodos
utilizados en los estudios muestra que hay
bases sólidas para el diseño de la rúbrica.
El 60% de las publicaciones se centra en es-
tudios de caso, marcos conceptuales y pro-
puestas de frameworks, lo que proporciona
un sólido fundamento teórico y práctico para
operacionalizar la competencia en dimen-
siones que se pueden medir. Por ejemplo,
White et al. (2023) y Lo (2023) han presen-
tado catálogos y frameworks estructurados
que ayudan a identificar componentes clave
para la evaluación, como la claridad, la con-
textualización y la capacidad de iteración en
el diseño de prompts.
Estas dimensiones no solo están bien docu-
mentadas, sino que también cuentan con un
consenso emergente en la literatura. Se han
identificado cinco dimensiones recurrentes,
claridad y precisión, contextualización, itera-
ción, creatividad y evaluación crítica, cada
una respaldada por al menos tres estudios.
Este acuerdo creciente entre los autores re-
fuerza la validez del contenido potencial de
una futura rúbrica (Korzynski et al., 2023;
Molina & Fernández, 2024). Posteriormente,
la viabilidad psicométrica de la rúbrica está
respaldada por investigaciones anteriores
que han validado herramientas similares en
el ámbito de la educación superior.
Estudios como los de Garay-Rondero et
al. (2024) y Verano-Tacoronte et al. (2016)
muestran que se pueden lograr altos niveles
de validez y confiabilidad en la evaluación
de competencias complejas utilizando mé-
todos bien establecidos, como el juicio de
expertos, el análisis factorial y el cálculo de
la confiabilidad entre evaluadores. Así que,
los datos cuantitativos que se extraen de la
literatura no solo respaldan la necesidad de
esta herramienta, sino que también demues-
tran su viabilidad técnica y metodológica.
Resultados Cualitativo: Viabilidad del Desa-
rrollo y Validación de una Rúbrica para Eva-
luar la Competencia en Prompt Engineering
"PROMPT ENGINEERING" COMO COMPETENCIA TRANSVERSAL CLAVE: DESARROLLO Y VALIDACIÓN DE
UNA RÚBRICA PARA SU EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
218
RECIAMUC VOL. 9 Nº 3 (2025)
La pregunta de investigación se centra en
la viabilidad de crear y validar una rúbrica
que cuente con evidencias de validez y
confiabilidad para evaluar la competencia
en ingeniería de prompts en la educación
superior. Al revisar la literatura, se sugiere
que, aunque este campo es emergente y
presenta ciertos desafíos, no solo es posi-
ble, sino también necesario desarrollar es-
tos instrumentos, y ya se están establecien-
do las bases metodológicas para ello.
1. Reconocimiento de la Competencia y
la Necesidad de Evaluarla
La literatura coincide en que la ingeniería
de prompts no es solo una técnica, sino una
competencia digital esencial y transversal.
Korzynski et al. (2023) lo explican clara-
mente al referirse a ella como una "nueva
competencia digital" (p. 25). Esta concep-
tualización es un primer paso fundamental,
ya que justifica la necesidad de crear instru-
mentos de evaluación competencial, como
las rúbricas, que vayan más allá de medir
resultados simples.
La urgencia de estos instrumentos se hace
evidente con la rápida integración de la IA
en las aulas. Raftery (2023) subraya la ne-
cesidad de "adaptar una estrategia de eva-
luación en la era de la IA generativa" (p. 1),
lo que significa que debemos pasar de eva-
luar solo la respuesta final a considerar el
proceso de elaboración de prompts que lle-
va a esa respuesta. Eager y Brunton (2023)
también apoyan esta idea, abogando por
"prácticas de enseñanza y aprendizaje po-
tenciadas por IA" (p. 1), que requieren eva-
luar la capacidad del estudiante para inte-
ractuar con estas herramientas de manera
crítica y efectiva.
2. Bases Existentes para las Dimensio-
nes de la Rúbrica
Diversos estudios ofrecen marcos concep-
tuales que se pueden traducir directamen-
te en dimensiones, criterios e indicadores
para una rúbrica. White et al. (2023) presen-
tan el marco más concreto con su "catálogo
de patrones de prompts", que proporciona
un lenguaje estandarizado y componen-
tes esenciales para la evaluación. Detecta
la cantidad de contenido generado por IA
y transforma tu texto para que suene más
humano con nuestro Detector de Conteni-
do AI. Simplemente pega tu texto y obtén
resultados precisos y naturales en cuestión
de segundos.
Otros estudios refuerzan la idea de que la
competencia es multidimensional. Knoth
et al. (2024) establecen un vínculo directo
entre la "alfabetización en IA y sus implica-
ciones para las estrategias de prompt engi-
neering" (p. 1), sugiriendo que la evaluación
debe abarcar dimensiones de comprensión
crítica de la tecnología. Lo (2023) propone
"The CLEAR path: A framework for enhan-
cing information literacy through prompt
engineering", integrando habilidades de
alfabetización informacional como criterios
esenciales. Esto sugiere que una rúbrica
válida debería evaluar no solo la efectividad
del prompt, sino también la claridad de los
objetivos, la selección de contextos rele-
vantes y la capacidad de iterar en función
de los resultados.
3. Evidencias de Validez y Conabilidad
en Contextos Anes
Aunque la literatura específica sobre la va-
lidación de rúbricas de prompt enginee-
ring aún es limitada, hay evidencias sólidas
que respaldan la validez y confiabilidad
de las rúbricas para evaluar competencias
complejas y transversales en la educación
superior, lo que facilita el camino metodo-
lógico. El trabajo de Garay-Rondero et al.
(2024) es especialmente relevante. En su
"estudio de caso sobre la resolución de
problemas complejos" en ingeniería, desa-
rrollaron y aplicaron "herramientas de eva-
luación basadas en competencias" (p. 1),
demostrando que es posible operacionali-
zar competencias abstractas en indicado-
res observables y medibles. Más especí-
ficamente, Verano-Tacoronte et al. (2016)
ofrecen un precedente metodológico claro
GUTIÉRREZ ROSADO, J. L., PALACIOS FLORES, K. K., CAJO PULLAS, M. J., & VILLOTA OYARVIDE, W. R.
219
RECIAMUC VOL. 9 Nº 3 (2025)
al crear y validar una "rúbrica fiable y váli-
da" para evaluar la competencia de comu-
nicación oral, documentando procesos de
validez de contenido (juicio de expertos) y
de constructo, así como medidas de confia-
bilidad (p. 39). Este estudio sirve como un
modelo a seguir para la validación de una
rúbrica de prompt engineering
Discusión de los resultados
El objetivo principal de este estudio fue exa-
minar la viabilidad de desarrollar y validar
una rúbrica con evidencias de validez y
confiabilidad para evaluar la competencia
en prompt engineering (PE) en el contexto
de la educación superior. A través de una re-
visión sistemática de la literatura siguiendo
las directrices PRISMA, esta investigación
buscó sintetizar el conocimiento existente
sobre los marcos conceptuales, dimensio-
nes e instrumentos de evaluación asocia-
dos a esta emergente habilidad transversal.
Los hallazgos de esta revisión indican que,
si bien el PE es reconocido de manera uná-
nime como una competencia esencial para
interactuar de forma crítica y efectiva con la
inteligencia artificial generativa (IAG) (Kor-
zynski et al., 2023; Walter, 2024), existe una
brecha significativa en la literatura respecto
a herramientas de evaluación estandariza-
das y validadas. La mayoría de los estudios
identificados se centran en proponer mar-
cos conceptuales, estrategias pedagógicas
o casos de aplicación (p. ej., White et al.,
2023; Lo, 2023; Molina & Fernández, 2024),
pero son escasos aquellos que abordan
explícitamente el diseño y la validación psi-
cométrica de instrumentos de evaluación
como rúbricas.
Una de las fortalezas identificadas en la li-
teratura revisada es el consenso emergente
en torno a las dimensiones clave que cons-
tituirían la competencia en PE. Dimensio-
nes como claridad y precisión, contextua-
lización, iteración, creatividad y evaluación
crítica aparecen recurrentemente en múlti-
ples estudios (White et al., 2023; Knoth et
al., 2024; Molina & Fernández, 2024), lo que
proporciona una base sólida para operacio-
nalizar constructos medibles en una futura
rúbrica. Este acuerdo entre autores de dis-
tintos contextos geográficos y disciplinarios
refuerza la validez de contenido potencial
del instrumento.
Asimismo, se identificaron precedentes me-
todológicos valiosos en la evaluación de
competencias transversales en educación
superior. Estudios como el de Verano-Taco-
ronte et al. (2016), que validaron una rúbri-
ca para comunicación oral, y Garay-Ronde-
ro et al. (2024), que evaluaron la resolución
de problemas complejos en ingeniería, de-
muestran que es factible lograr altos nive-
les de validez y confiabilidad mediante mé-
todos bien establecidos, como el juicio de
expertos y el análisis factorial. Esto sugiere
que el desarrollo de una rúbrica para PE es
técnicamente viable, siempre que se siga
un riguroso proceso de validación.
Sin embargo, también se observaron debili-
dades y desafíos. La principal es la escasez
de literatura empírica específica sobre la va-
lidación de rúbricas de PE. La mayoría de los
estudios incluidos son teóricos, descriptivos
o proponen frameworks sin ponerlos a prue-
ba con evidencia psicométrica robusta. Esto
limita la posibilidad de generalizar hallazgos
y subraya la necesidad de investigación pri-
maria que desarrolle y valide instrumentos
ad hocOtro desafío reside en la rapidez con
la que evolucionan las tecnologías de IAG.
Los modelos de lenguaje avanzan a un ritmo
que podría dejar obsoletos rápidamente los
criterios de evaluación actuales. Por lo tanto,
cualquier rúbrica diseñada deberá ser flexi-
ble y adaptable, capaz de evolucionar junto
con la tecnología que pretende evaluar (Qa-
dir, 2023; Raftery, 2023).
El significado de estos resultados es doble.
Por un lado, confirman la urgencia expre-
sada por múltiples autores (Kasneci et al.,
2023; Sánchez-Ruiz et al., 2023) de dotar al
profesorado de herramientas que permitan
integrar la IAG de forma pedagógicamen-
te sólida y evaluable, superando enfoques
"PROMPT ENGINEERING" COMO COMPETENCIA TRANSVERSAL CLAVE: DESARROLLO Y VALIDACIÓN DE
UNA RÚBRICA PARA SU EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
220
RECIAMUC VOL. 9 Nº 3 (2025)
anecdóticos o centrados únicamente en el
producto final. Por otro lado, este estudio
sienta las bases teóricas y metodológicas
para futuras investigaciones, proporcionan-
do un punto de partida claro para el diseño
de una rúbrica. En conclusión, los hallazgos
de esta revisión sistemática sugieren que
es posible y necesario desarrollar y validar
una rúbrica para evaluar la competencia en
prompt engineering. La literatura existente
ofrece un marco conceptual sólido y dimen-
siones consensuadas, además de metodo-
logías de validación probadas en compe-
tencias afines. No obstante, se requiere de
investigación empírica futura que supere la
actual brecha entre la propuesta teórica y
la validación práctica de instrumentos, ase-
gurando que sean robustos, confiables y
aplicables en diversos contextos de la edu-
cación superior.
Conclusiones
Este estudio realizó una revisión sistemática
de la literatura con el objetivo de sintetizar
la evidencia disponible sobre la ingeniería
de prompts (PE) como competencia trans-
versal y evaluar la viabilidad de desarrollar
y validar una rúbrica para su evaluación en
la educación superior. Los hallazgos princi-
pales confirman que el PE es ampliamente
reconocido como una competencia digital
esencial y transversal, crucial para interac-
tuar de manera crítica, creativa y estratégica
con los modelos de lenguaje grande (LLMs)
en contextos académicos (Korzynski et al.,
2023; Walter, 2024).
La revisión identificó un consenso emergen-
te en torno a dimensiones clave que debe-
ría medir una rúbrica, entre ellas: claridad
y precisión, contextualización, iteración,
creatividad y evaluación crítica (White et al.,
2023; Molina & Fernández, 2024; Knoth et
al., 2024). A pesar de este sólido fundamen-
to conceptual, se identificó una brecha crí-
tica: la notable escasez de herramientas de
evaluación estandarizadas y validadas psi-
cométricamente específicas para esta com-
petencia. Si bien existen precedentes me-
todológicos exitosos para la validación de
rúbricas de otras competencias complejas
en educación superior (Verano-Tacoronte et
al., 2016; Garay-Rondero et al., 2024), estos
aún no se han aplicado de forma generali-
zada al dominio del PE.
En el contexto de la investigación existente,
estos resultados refuerzan la urgencia ex-
presada por numerosos autores de ir más
allá de las aplicaciones anecdóticas de la
IA Generativa y avanzar hacia su integración
pedagógica formal, lo que requiere de ins-
trumentos de evaluación robustos (Kasneci
et al., 2023; Qadir, 2023; Sánchez-Ruiz et al.,
2023). Este estudio contribuye a este campo
emergente al consolidar un marco de dimen-
siones evaluables y demostrar la viabilidad
metodológica de su operacionalización en
una rúbrica. Entre las fortalezas de este es-
tudio se encuentra la adherencia a una me-
todología sistemática y rigurosa (PRISMA),
que asegura la transparencia y reproduci-
bilidad del proceso de revisión. Además, la
inclusión de una gama diversa de fuentes y
contextos geográficos enriquece la perspec-
tiva general del fenómeno de estudio.
Sin embargo, esta revisión también presen-
ta limitaciones. La principal es la naturaleza
incipiente de la literatura sobre el tema, ca-
racterizada por un volumen significativo de
propuestas teóricas y marcos conceptuales
frente a una escasez de estudios empíricos
de validación. Esto limita la posibilidad de
realizar un meta-análisis cuantitativo y obli-
ga a basar las conclusiones en una síntesis
narrativa. Asimismo, el rápido avance de
la tecnología de IA Generativa implica que
cualquier instrumento de evaluación corre
el riesgo de quedar desactualizado rápida-
mente, lo que representa un desafío cons-
tante para la investigación en este campo.
Con base en estos hallazgos, se proponen
las siguientes recomendaciones: Para la
práctica educativa: Desarrollar intervencio-
nes formativas explícitas que enseñen las
dimensiones del PE identificadas (claridad,
contextualización, iteración, etc.), integran-
GUTIÉRREZ ROSADO, J. L., PALACIOS FLORES, K. K., CAJO PULLAS, M. J., & VILLOTA OYARVIDE, W. R.
221
RECIAMUC VOL. 9 Nº 3 (2025)
do su práctica en distintas disciplinas. Utili-
zar los marcos conceptuales existentes
(p. ej., White et al., 2023; Lo, 2023) como
guía para diseñar actividades y criterios de
evaluación preliminares mientras se dispo-
ne de instrumentos validados. Para futu-
ras investigaciones: Priorizar el desarrollo
y validación psicométrica de una rúbrica
específica para PE, siguiendo los métodos
rigurosos ya aplicados en la evaluación de
otras competencias (validez de conteni-
do mediante juicio de expertos, validez de
constructo, confiabilidad inter-evaluadores).
Realizar estudios empíricos que apliquen la
rúbrica propuesta en contextos educativos
reales para evaluar su utilidad, sensibilidad
al cambio y capacidad para predecir el des-
empeño efectivo con herramientas de IAG.
Investigar la evolución de la competencia
en PE a lo largo del tiempo y en diferentes
disciplinas, para adaptar y refinar continua-
mente las herramientas de evaluación.
En definitiva, este estudio concluye que la
creación de una rúbrica válida y confiable
para evaluar la ingeniería de prompts no
solo es factible gracias a la base concep-
tual y metodológica existente, sino también
imprescindible para asegurar que la inte-
gración de la IA Generativa en la educación
superior se realice de forma pedagógica-
mente sólida, ética y efectiva.
Bibliografía
Aaron, L., Abbate, S., Marae Allain, N., Fallon, B., &
Gavin, D. (2024). Optimizing AI in Higher Educa-
tion: SUNY FACT² Guide (p. 121). State university
of New York press.
Abdulshahed, A. M. (2023). A novel framework le-
veraging prompt engineering and the grey-ba-
sed approach–a case study in Libya. Available at
SSRN 4492606.
Clavié, B., Ciceu, A., Naylor, F., Soulié, G., & Bri-
ghtwell, T. (2023, June). Large language models
in the workplace: A case study on prompt engi-
neering for job type classification. In International
conference on applications of natural language to
information systems (pp. 3-17). Cham: Springer
Nature Switzerland.
Cruz, M., Saunders-Smits, G., & Groen, P. (2019).
Evaluation of competency methods in engineering
education: a systematic review. European Journal
of Engineering Education, 45, 729 - 757. https://
doi.org/10.1080/03043797.2019.1671810
Eager, B., & Brunton, R. (2023). Prompting higher
education towards AI-augmented teaching and
learning practice. Journal of university teaching
and learning practice, 20(5), 1-19.
Fotaris, P., Mastoras, T., & Lameras, P. (2023, Sep-
tember). Designing educational escape rooms
with generative AI: A framework and ChatGPT
prompt engineering guide. In 17th European Con-
ference on Games Based Learning.
Garay-Rondero, C., Castillo-Paz, A., Gijón-Rive-
ra, C., Domínguez-Ramírez, G., Rosales-Torres,
C., & Oliart-Ros, A. (2024). Competency-based
assessment tools for engineering higher edu-
cation: a case study on complex problem-sol-
ving. Cogent Education, 11. https://doi.or-
g/10.1080/2331186X.2024.2392424
Hazari, S. (2024). Justification and roadmap for ar-
tificial intelligence (AI) literacy courses in higher
education. Journal of Educational Research and
Practice, 14(1), 7.
Haddaway, N. R., Page, M. J., Pritchard, C. C., &
McGuinness, L. A. (2022). PRISMA2020: An R
package and Shiny app for producing PRISMA
2020-compliant flow diagrams, with interactivity
for optimised digital transparency and Open Syn-
thesis Campbell Systematic Reviews, 18, e1230.
https://doi.org/10.1002/cl2.1230
Jacobsen, L. J., & Weber, K. E. (2023). The promises
and pitfalls of ChatGPT as a feedback provider in
higher education: An exploratory study of prompt
engineering and the quality of AI-driven feedback.
Kasneci, E., Seßler, K., Küchemann, S., Bannert,
M., Dementieva, D., Fischer, F., Gasser, U., Groh,
G., Günnemann, S., Hüllermeier, E., Krusche, S.,
Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J.,
Poquet, O., Sailer, M., Schmidt, A., Seidel, T., …
Kasneci, G. (2023). ChatGPT for good? On oppor-
tunities and challenges of large language models
for education. Learning and Individual Differen-
ces, *103*, 102274. https://doi.org/10.1016/j.lin-
dif.2023.102274
Knoth, N., Tolzin, A., Janson, A., & Leimeister, J. M.
(2024). AI literacy and its implications for prompt
engineering strategies. Computers and Education:
Artificial Intelligence, 6, 100225.
"PROMPT ENGINEERING" COMO COMPETENCIA TRANSVERSAL CLAVE: DESARROLLO Y VALIDACIÓN DE
UNA RÚBRICA PARA SU EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
222
RECIAMUC VOL. 9 Nº 3 (2025)
Korzynski, P., Mazurek, G., Krzypkowska, P., & Kura-
sinski, A. (2023). Artificial intelligence prompt en-
gineering as a new digital competence: Analysis
of generative AI technologies such as ChatGPT.
Entrepreneurial Business and Economics Review,
11(3), 25-37.
Lee, D., & Palmer, E. (2025). Prompt engineering in
higher education: a systematic review to help in-
form curricula. International Journal of Educatio-
nal Technology in Higher Education. https://doi.
org/10.1186/s41239-025-00503-7
Lo, L. (2023). The CLEAR path: A framework for en-
hancing information literacy through prompt engi-
neering. The Journal of Academic Librarianship.
https://doi.org/10.1016/j.acalib.2023.102720
Meskó, B. (2023). Prompt engineering as an important
emerging skill for medical professionals: tutorial.
Journal of medical Internet research, 25, e50638.
Molina, A. I., & Fernández, D. C. (2024). Integrating
Generative AI into Higher Education: A Framework
for Prompt Engineering Skills Development. Jour-
nal of Educational Technology & Society, 27(1),
45-58.
Page, M. J., McKenzie, J. E., Bossuyt, P. M., Bou-
tron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer,
L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., Chou,
R., Glanville, J., Grimshaw, J. M., Hróbjartsson, A.,
Lalu, M. M., Li, T., Loder, E. W., Mayo-Wilson, E.,
McDonald, S., … Moher, D. (2021). The PRISMA
2020 statement: An updated guideline for reporting
systematic reviews. Systematic Reviews, 10 (1),
89. https://doi.org/10.1186/s13643-021-01626-4
Qadir, J. (2023). Engineering education in the era
of ChatGPT: Promise and pitfalls of generative
AI for education. IEEE Global Engineering Edu-
cation Conference (EDUCON), 1-9. https://doi.
org/10.1109/EDUCON54358.2023.10125121
Raftery, D. (2023). Will ChatGPT pass the online qui-
zzes? Adapting an assessment strategy in the age
of generative AI. Irish Journal of Technology En-
hanced Learning, 7(1).
Raftery, D. (2023). Will ChatGPT pass the online qui-
zzes? Adapting an assessment strategy in the age
of generative AI. Irish Journal of Technology En-
hanced Learning, 7(1).
Robles, L., Villarreal, K., Oropeza, R., Oviedo, F., &
Gonzalez-Guerra, L. (2024). Integral Evaluation
For Engineering Graduates: Comparison Of Com-
petency-based Assessment Tools. 2024 World En-
gineering Education Forum - Global Engineering
Deans Council (WEEF-GEDC), 1-6. https://doi.
org/10.1109/WEEF-GEDC63419.2024.10854950
Sánchez-Ruiz, L. M., Moll-López, S., Nuñez-Pérez,
A., Moraño-Fernández, J. A., & Vega-Fleitas, E.
(2023). ChatGPT and the Era of Generative AI in
Higher Education: A Preliminary Study on the Per-
ception of Faculty and Students. Education Scien-
ces, 13(9), 947. https://doi.org/10.3390/educs-
ci13090947
Schäffer, B., & Lieder, F. R. (2023). Distributed inter-
pretation–teaching reconstructive methods in the
social sciences supported by artificial intelligence.
Journal of research on technology in education,
55(1), 111-124.
Susnjak, T. (2024). Beyond predictive learning
analytics modelling and onto explainable artificial
intelligence with prescriptive analytics and Chat-
GPT. International Journal of Artificial Intelligence
in Education, 34(2), 452-482.
Tawfik, G. M., Dila, K. A. S., Mohamed, M. Y. F., Tam,
D. N. H., Kien, N. D., Ahmed, A. M., & Huy, N. T.
(2019). A step by step guide for conducting a sys-
tematic review and meta-analysis with simulation
data. Tropical medicine and health, 47(1), 46.
Tupper, M., Hendy, I. W., & Shipway, J. R. (2023).
Field courses for dummies: can ChatGPT design a
higher education field course?.
Verano-Tacoronte, D., González-Betancor, S. M.,
Bolívar-Cruz, A., Fernández-Monroy, M., & Gal-
ván-Sánchez, I. (2016). Valoración de la compe-
tencia de comunicación oral de estudiantes uni-
versitarios a través de una rúbrica fiable y válida.
Revista Brasileira de Educação, 21(64), 39–60.
https://doi.org/10.1590/S1413-24782016216403
Walter, Y. (2024). Embracing the future of Artificial In-
telligence in the classroom: the relevance of AI li-
teracy, prompt engineering, and critical thinking in
modern education. International Journal of Educa-
tional Technology in Higher Education, 21(1), 15.
White, J., Fu, Q., Hays, S., Sandborn, M., Olea, C.,
Gilbert, H., Elnashar, A., Spencer-Smith, J., & Sch-
midt, D. C. (2023). A prompt pattern catalog to
enhance prompt engineering with ChatGPT. arXiv
preprint. https://arxiv.org/abs/2302.11382
White, J., Fu, Q., Hays, S., Sandborn, M., Olea, C.,
Gilbert, H., ... & Schmidt, D. C. (2023). A prompt
pattern catalog to enhance prompt engineering
with chatgpt. arXiv preprint arXiv:2302.11382.
Xiao, Y., & Watson, M. (2019). Guidance on conduc-
ting a systematic literature review. Journal of plan-
ning education and research, 39(1), 93-112.
Zheng, J., & Fischer, M. (2023). Dynamic prompt-ba-
sed virtual assistant framework for BIM information
search. Automation in Construction, 155, 105067.
GUTIÉRREZ ROSADO, J. L., PALACIOS FLORES, K. K., CAJO PULLAS, M. J., & VILLOTA OYARVIDE, W. R.
223
RECIAMUC VOL. 9 Nº 3 (2025)
CITAR ESTE ARTICULO:
Gutiérrez Rosado, J. L., Palacios Flores, K. K., Cajo Pullas, M. J., & Villota
Oyarvide, W. R. (2025). "Prompt engineering" como competencia transver-
sal clave: desarrollo y validación de una rúbrica para su evaluación en la
educación superior. RECIAMUC, 9(3), 209-223. https://doi.org/10.26820/re-
ciamuc/9.(3).julio.2025.209-223
"PROMPT ENGINEERING" COMO COMPETENCIA TRANSVERSAL CLAVE: DESARROLLO Y VALIDACIÓN DE
UNA RÚBRICA PARA SU EVALUACIÓN EN LA EDUCACIÓN SUPERIOR