Introducción
A partir del surgimiento de la Inteligencia Artificial (IA) generativa y sus amplios usos en los escenarios de formación inicial y profesional, reaparece el fantasma de la resistencia a la adaptación tecnológica entre los actores que administran y orientan los procesos educativos en todos sus niveles y modalidades. No es para menos, ya que los avances tecnológicos llegan a la sociedad sin previo aviso, especialmente para quienes gerencian el sistema educativo de cada nación.
Para la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología de la UNESCO (2019), las tecnologías basadas en IA son capaces de realizar tareas al igual que o un ser humano e incluso con superior capacidad y rapidez, incluyendo la detección, la interacción lingüística, el razonamiento y el análisis, la resolución de problemas, así como la creatividad. Aunado a esto, entre otras contribuciones, se destaca el aprendizaje adaptativo, la personalización, el aprendizaje profundo y el sistema de tutorías inteligentes. (Bozkurt, et al., 2021)
Cabe agregar que este temor o resistencia es de vieja data. Con el surgimiento de la calculadora electrónica a mediados del siglo XX, se creyó que las personas reducirían su capacidad de razonamiento numérico; con la televisión y sus noticieros, se instauró la creencia de que ya no se leerían periódicos; en cuanto a la máquina de escribir y luego el computador, la misiva se orientaba hacia el abandono de la escritura a mano; con internet, se dejarían de visitar bibliotecas; con los libros digitales, nadie leería libros físicos; con el streaming, nadie iría al cine, con la IA se minimizará la capacidad de pensamiento crítico, entre muchas otras resistencias ya olvidadas, y muchas más, que están por venir.
Al respecto, las Instituciones de Educación Superior (IES) comienzan a evidenciar la emergencia de prácticas académicas inusuales por parte de los aprendices para el cumplimiento de sus tareas, lo cual obliga a todos a revisar la normatividad institucional, las capacidades de sus docentes para estar a la par de sus estudiantes y la infraestructura tecnológica instalada; e incluso la requerida, en aras de garantizar que el prestigio y la oferta académica siga siendo la más atractiva y competente para nuevos y antiguos estudiantes.
No obstante, en ambientes universitarios, tanto presenciales como virtuales, se escucha al unísono la misma preocupación sobre el uso de la IA por parte de los estudiantes para resolver sus asignaciones, pero tales expresiones compartidas entre docentes van acompañadas de un lenguaje gestual que delata su temor hacia el desconocimiento sobre qué es la IA, cómo funciona y para qué puede utilizarse en su praxis educativa. Como reacción, algunos profesores prefieren prohibirla y cuestionarla para mantener su status quo dentro de los entornos de aprendizaje, pues al parecer se aferran al ideario social que la IA es exclusiva de jóvenes o profesionales de la ingeniería.
Adicionalmente, en reuniones formales o informales entre docentes investigadores, la incertidumbre se enfoca en el uso de la IA para la elaboración de nuevos productos aspirantes a ser publicados en revistas científicas. Concretamente, el cuestionamiento va dirigido a: ¿Qué parte de lo producido por IA es propio y qué puede señalarse como posible plagio? Tales interrogantes se relacionan con la ausencia de una normatividad institucional o consensos internacionales contundentes que amparen prácticas de generación de contenidos asistidos con IA a partir de un marco ético plenamente definido, lo cual imposibilita la emisión de orientaciones adecuadas sobre el uso correcto de la IA por parte del docente. En consecuencia, es crucial abordar los desafíos técnicos, éticos y culturales que la IA presenta, incluyendo la privacidad de los datos, el sesgo en los algoritmos y la necesidad de una gobernanza responsable (Drach et al., 2023).
Estas motivaciones iniciales, expresadas en los enunciados anteriores, se amalgaman en la intencionalidad manifiesta en el contexto de las IES, evidenciando la necesidad de reconfiguración de una nueva ética digital que no solo presente la dimensión axiológica sobre el uso de la IA, sino que también erradique o regule la práctica normalizada de difusión de contenidos digitales (libros, por ejemplo), lo cual transgrede, de igual manera, los principios de derechos de autor.
Ahora bien, detrás de todo lo captado entre observaciones y conversaciones, se esconde posiblemente una fisura de mayor profundidad, oculta bajo el manto oscuro de la inexistente reflexión sobre su propio quehacer docente. Pues, si de base existe una formación ética del estudiante, su sentido común le llevaría siempre a cuidar cualquier movimiento realizado con apoyo de la IA y con cualquier tecnología que pudiese surgir en su recorrido formativo como profesional. Esto constituye su integralidad, su dimensión histórica e ideográfica, la cual le permitirá reconocerse como ser íntegro, honesto y socialmente responsable.
En virtud de lo mencionado, y en coherencia con mi rol de docente universitario, se suman acontecimientos y prácticas relacionadas con el fenómeno descrito, como el desarrollo de una confianza ciega hacia la IA, la apropiación irresponsable de contenidos, la posible afectación de la capacidad crítica y analítica, así como la dependencia hacia la IA para la toma de decisiones de manera automatizada, entre otras amenazas que emergieron durante la investigación. De manera metafórica, las manifestaciones que acompañan al fenómeno van dejando en su estela: confusión, ansiedad y desconfianza, sumadas al temor y a la incertidumbre, antes mencionadas. Empero, tales emociones, creencias, modos de actuar y relaciones con otros influyen en la experiencia de aprendizaje; lo cual intranquiliza que la armonía y confianza en los entonos educativos se vea afectada, o peor aún, se perciban como espacios para perseguir y no para formar sobre el uso correcto de la IA.
En definitiva, las universidades, como centros educativos de transformación social donde confluyen y coexisten todas las corrientes del pensamiento, poseen grandes desafíos orientados, inicialmente, a comprender la percepción de los docentes sobre el uso de la IA en educación universitaria. Por tal motivo, las preguntas centrales que orientaron la investigación fueron: ¿Cuál es la percepción de los docentes universitarios sobre el uso de la inteligencia artificial? ¿Cuáles son las contribuciones que emergen del uso de la IA en los procesos académicos e investigativos? ¿Cuáles amenazas emergen? ¿Cuáles consideraciones éticas se deben tener en cuenta para el uso de la IA en los procesos académicos e investigativos? ¿Qué acciones de mejora propone?
Metodología
La presente investigación se construyó a partir del paradigma interpretativista, desde una perspectiva metodológica cualitativa, bajo el método fenomenológico-hermenéutico propuesto por Heidegger (1927), en el cual se concibe que los seres humanos están en constante interacción con el mundo, desarrollando en él habilidades, significados y prácticas colectivas que construyen cultura. De allí el uso del lenguaje, como medio de representación propia y de comprensión del entorno, pues solo a través de él las cosas se manifiestan y, al hacerlo, damos sentido a nuestra existencia, en tanto que, todo acto comprensivo es, por naturaleza, interpretativo. La fenomenología hermenéutica va “De la fenomenología a la ontología, pasando por una hermenéutica de la existencia (humana)”. (León, 2009, p. 282)
Adicionalmente, se asumieron los postulados del “Proceso de Fusión de Horizontes” propuestos por Gadamer (1960) en su fenomenología-hermenéutica, pues una directriz transversal del presente estudio pasa por el reconocimiento de la necesidad de diálogo permanente entre sujeto investigador y sujetos investigados. Así mismo, en calidad de docente universitario, con amplio apego al uso de herramientas tecnológicas para potenciar mi praxis pedagógica e investigativa, por este motivo, considero como el prejuicio más arraigado que poseo, mi incapacidad para concebir la figura del docente, ajena a procesos de actualización permanente e investigación. Sin embargo, poseo la mayor disposición y tolerancia hacia la influencia y transformación que los testimonios que surjan de las interacciones dialógicas e interpretativas, puedan generar en mí.
Por su parte, tanto en Heidegger como en Gadamer, historicidad y espacialidad constituyen categorías fundamentales para materializar significados a través del lenguaje. En consecuencia, el proceso de análisis-síntesis de la evidencia cualitativa producida y recolectada se efectuó a la luz del contexto histórico y cultural en el cual han tenido lugar los enunciados ideográficos expresados por los acompañantes epistémicos del presente estudio.
En relación con los acompañantes epistémicos (AE), se fue creando un “grupo expansivo”, en el cual se partió de un epicentro (local) y se fue expandiendo la integración de los sujetos bajo la premisa de experiencias comunes; sin embargo, siempre vigilante de mantener intacta la dimensión ontológica de la investigación al estudiar en profundidad el fenómeno de interés.
Inicialmente, se entrevistaron en profundidad a seis docentes investigadores adscritos a una universidad de gestión pública en Colombia, luego se procedió a realizar un grupo focal vía Zoom, con ocho docentes investigadores de distintos departamentos del país con la intención de recoger impresiones del mismo fenómeno, pero en otros contextos de la geografía nacional, pues el fenómeno en estudio no contempla una realidad sui generis o exclusiva; en cambio, se detectaron segmentos o piezas que fueron engranando con eventos ocurridos y captados desde perspectivas distintas en función de la cosmovisión de los docentes. Razón por la cual, en una tercera fase de generación y recolección de evidencia, se realizó una encuesta con preguntas abiertas dirigidas a veintidós docentes investigadores de Venezuela, Bolivia, México, Perú, Ecuador, Costa Rica y Chile, para un total de treinta y seis sujetos acompañantes epistémicos.
Para el análisis de los datos protocolares en ATLAS.ti 24, se procedió a construir la ruta denominada Filtros Epistémicos en el Proceso de Reducción de la Evidencia Cualitativa (figura 1). En el primer filtro epistémico se precedió a preparar y a organizar, según el formato y tipo de técnica, la evidencia generada y recolectada durante la etapa, acercamiento e integración con los acompañantes epistémicos. Luego, se realizó un sondeo semántico -segundo filtro- a través de la nube de conceptos y mapa de árbol para previsualizar de manera prospectiva las posibles palabras claves o conceptos que mayor presencia poseen en los textos.
En el tercer filtro, se identificaron y extrajeron los atributos presentes en los enunciados que integran a cada entrevista o fuente de datos; en este proceso se develan y consensúan los significados en su dimensión pragmática, en el cual texto y contexto se sintonizan para dar paso a la interpretación de la evidencia, pero también a los comportamientos, relaciones sociales, valores y creencias que se encuentran latentes en un nivel de opacidad discursiva. Cabe destacar que, cada código fue acompañado de su definición contextual, pues es esta quien le impregna de sentido. En virtud de ello, se procedió a realizar el proceso Acuerdo Intercodificadores con ATLAS.ti 24 para la confirmabilidad de los significados tranzados, junto a seis docentes investigadores disponibles en la misma localidad para el trabajo colaborativo, lo cual sirvió para curtir de intersubjetividad a los hallazgos inductivos, así como para releer y recodificar.
Figura 1: Filtros epistémicos en el proceso de reducción de la evidencia cualitativa.

Nota: Elaboración propia (2024)
Seguidamente, se procedió a continuar reduciendo la evidencia cualitativa a través del agrupamiento de significados (códigos) en campos semánticos. Este filtro ha sido denominado reducción sintética, acción en la cual se decantan los códigos, a partir de rasgos, características, dimensiones o atributos comunes, para dar paso a la generación de campos semánticos o categorías que concentren tales aspectos. Cabe destacar que se detectaron códigos difusos, estos están representados por aquellos significados que se separan o dispersan de los rasgos de otros códigos, razón por la cual no logran pertenecer a ningún campo semántico.
Acto seguido, inició la construcción de redes semánticas para el establecimiento de relaciones entre significados y entre significados y campos semánticos, lo cual permitió comprender a partir de inferencias los conceptos y patrones que visiblemente no se encuentran explícitos en los textos; incluso, este filtro convoca a trascender más allá de las delimitaciones que envuelven a los significados inductivos para alcanzar niveles de abstracción que permitan el surgimiento de nuevas teorías. Ahora bien, los significados y sus relaciones fueron explicitadas en memos analíticos que permitieron dar respuesta a la interrogante central de la investigación.
Pero, antes que emerja la teoría, se sometieron los significados a una fase de contrastación semántica, que incluyó la controversia entre códigos y documentos generados por los sujetos para legitimar a los códigos que posean enraizamientos compartidos (dominios semánticos) a partir del principio de saturación y muestreo teórico presentado por Strauss y Corbin (2002). Es decir, aquellos códigos confusos, entendidos como los significados que carecieron de claridad o robustez teórica en la voz de otros acompañantes epistémicos, serían excluidos. No obstante, existen excepciones, se incluyeron significados que, aunque no legitimados (vacíos teóricos) se consideran de gran relevancia para el estudio, pues se muestran novedosos o rompen los patrones seguidos por otros informantes. A estos significados se les denominó códigos disruptivos.
Luego se compartieron los hallazgos con los acompañantes epistémicos para confirmar la no tergiversación del sentido de las descripciones suministradas por ellos. Por último, se contrastaron los hallazgos inductivos con los hallazgos deductivos, es decir, la evidencia inductiva analizada en el estudio con el corpus teórico científico publicado; entendiendo, que la voz primera la posee el hallazgo inductivo, en tanto que, la controversia se induce con el fin único de detectar coincidencias o de generar aportes a la teoría emergente. Este proceso permitió escalar hasta el séptimo filtro epistémico denominado teorización emergente, en el cual se plantearon un “… conjunto de afirmaciones de relación que pueden usarse para explicar lo que ocurre» (Strauss y Corbin, 2002, p. 159). Adicionalmente,
El proceso de teorización utiliza todos los medios disponibles a su alcance para lograr la síntesis final de un estudio o investigación. Más concretamente, este proceso tratará de integrar en un todo coherente y lógico los resultados de la investigación en curso, mejorándolo con los aportes de los autores reseñados en el marco teórico-referencial después del trabajo de contrastación. (Martínez, 2015, p. 75)
En definitiva, la teoría emergente está constituida por los dominios semánticos y sus confrontaciones con el armazón teórico presente en la literatura científica, además de los hallazgos disruptivos capaces de deconstruir patrones preexistentes en la teoría para reconstruir nuevos a partir de la reconfiguración de nexos y relaciones, permitiendo una explicación en profundidad del fenómeno, pero ahora, con mayor claridad, coherencia y lógica.
Resultados
Los resultados se ciñen -estructuralmente- a la dinámica dialógica establecida desde las preguntas de investigación y los propósitos del estudio (tabla 1). A continuación, se revela el fenómeno a través de las distintas reducciones obtenidas mediante el proceso de análisis y síntesis. Estas reducciones resultaron en campos semánticos específicos, los cuales se presentan individualmente para permitir una comprensión profunda del proceso de emergencia de la categoría central. De esta manera, se construyen aproximaciones teóricas emergentes.
Tabla 1
Relación entre propósitos, pregunta central y preguntas generadoras
PROPÓSITOS | PREGUNTA CENTRAL | PREGUNTAS GENERADORAS |
Comprender la percepción de los docentes sobre el uso de la IA en educación universitaria | ¿Qué percepción tienen los docentes sobre el uso de la IA en la educación universitaria? | ¿Cuáles son las contribuciones que emergen del uso de la IA en los procesos académicos e investigativos? ¿Cuáles amenazas emergen? ¿Cuáles consideraciones éticas se deben tener en cuenta para el uso de la IA en los procesos académicos e investigativos? ¿Qué acciones de mejora propone? |
Construir aproximaciones teóricas emergentes |
Nota: Elaboración propia (2024)
En este sentido, en respuesta a la primera pregunta central ¿Qué percepción tienen los docentes sobre el uso de la IA en la educación universitaria?, la cual permitió la emergencia de los campos semánticos: Requerimientos (10), Desafíos (7), Consideraciones éticas (10), Contribuciones (21) y Riesgos el uso de la IA (19). En este sentido, muestro a continuación la red semántica originada a partir de los significados extraídos y sintetizados de la evidencia inductiva recolectada, sin embargo, por contener 67 códigos, solo se presentan los campos semánticos para su mejor visualización y comprensión.

Figura 2. Red semántica Uso de la IA
Nota: Elaboración propia (2024)
Memorándum Analítico
En respuesta a la pregunta central y en función de las redes semánticas de cada categoría, que exponen los nexos y relaciones entre los códigos. En este sentido, se infiere que la percepción hacia el uso de la IA en la educación superior, sin lugar a dudas, requiere del acceso a herramientas tecnológicas, en tanto que, esto permitiría reducir la brecha tecnológica entre los sectores vulnerables, además del acompañamiento de docentes expertos o monitores que guíen al estudiantado hacia buenas prácticas y el uso adecuado de la IA. En relación con estas premisas, tanto docentes como estudiantes deben tener dominio sobre las políticas de protección de datos y prácticas de transparencia, las cuales están relacionadas con la evaluación de riesgos, el seguimiento y el control, garantizando un uso seguro y ético. Plantea el AE 9:3 ¶ 5 – 6 en D7 “Conocer los tratados y códigos éticos de manejo de la AI”
Por su parte, la virtuosidad humana frente a la IA está representada por el pensamiento crítico y la reflexión constante sobre los contenidos generados por ella, en aras de evaluar los sesgos en su implementación en los entornos educativos. Otro requerimiento consiste en fomentar la colaboración y el diálogo para generar un entorno de aprendizaje compartido, colaborativo y consciente de la necesidad de cuestionar las respuestas emitidas por la IA.
En cuanto a los desafíos a superar, los sujetos informantes expresan sobre la garantía de privacidad y seguridad de datos, relacionada con la verificación de los resultados y el respeto al derecho de autor, evitando el plagio de contenidos. En palabras de AE 21:3 ¶ 5 en D19 “Se debe verificar que no se haya incurrido en plagio y que las referencias sean reales” Otro reto consiste en minimizar la despersonalización del aprendizaje ante la dependencia o adicción que puede generar el uso de estas herramientas.
Las consideraciones éticas, por su parte, exhortan al manejo de diversas fuentes, la privacidad y seguridad de los datos obtenidos y analizados. De igual forma, la protección del derecho de autor y la construcción social del conocimiento son esenciales para mantener la integridad y fomentar un entorno ético. En voz del AE 8:5 ¶ 8 en D6 “Fortalecer como cultura institucional la integridad académica, evaluación del impacto de las IA en el aspecto ético, etc.” Otro de los significados que emerge, se centran en la transparencia, derivada del manejo adecuado de datos, lo cual es crucial para garantizar la integridad académica y la confianza en la IA. Estos elementos interconectados colaboran para fomentar una ética sólida en la aplicación de la inteligencia artificial, asegurando el respeto a los principios humanos y promoviendo un uso responsable y sostenible de la tecnología, lo que subraya la imperiosa necesidad de una reformulación ética en la era digital.
Una visión diferente se evidencia al detallar las múltiples contribuciones de la IA: la interacción con la tecnología y la disponibilidad de información, ya que ayudan en la formación de bases de datos y a la adaptación de la enseñanza, promoviendo la eficiencia y el avance en la ciencia. Además, la creación de contenido digital y el apoyo educativo, respaldados por la asistencia inteligente y el acceso a recursos educativos, lo que fomenta un aprendizaje en red.
Incluso, los sujetos destacan que la automatización de procesos, junto con el análisis de documentos, datos y resultados, mejora la agilidad en las tareas y amplía la posibilidad de obtener más conocimientos. En palabras del AE 3:1 ¶ 1 – 3 en D1 “Los sistemas de IA pueden ayudar a los docentes a personalizar la enseñanza y adaptar los materiales educativos según las necesidades individuales de cada estudiante, permitiendo un aprendizaje más eficiente y efectivo”. En consecuencia, estas contribuciones, interrelacionadas, potencian la productividad, promueven el desarrollo científico y mejoran la educación mediante un aprendizaje personalizado y en red, demostrando el impacto positivo de la IA en diversas disciplinas.
No obstante, el uso de la IA trae consigo diversos riesgos que podrían radicalizarse en caso de expandirse los desafíos antes mencionados. Entre ellos, la dependencia a la IA genera confianza ciega, esto implica la negación a cuestionar sus respuestas, las cuales podrían tener sesgos derivados de los algoritmos. Comenta el AE 4:2 ¶ 4 en D2 “Dependencia al uso de las herramientas, no desarrollar capacidad de análisis propio a la información proporcionada, se reduce el uso de capacidad de redacción”. Así, el exceso de dependencia en la automatización puede perjudicar las habilidades críticas y analíticas de los estudiantes, disminuyendo las capacidades cognitivas y favoreciendo la reducción del pensamiento crítico, lo que a su vez limita la inventiva y originalidad. También, la falta de habilidades para escribir adecuadamente y la omisión de citar fuentes pueden llevar a comportamientos académicos deshonestos, como el plagio y la apropiación irresponsable de datos. A esto se suma, la falta de trazabilidad en los procesos y la verificación insuficiente de información, que conducen a deficiencias en el análisis de datos, comprometiendo la transparencia y la integridad científica.
Contrastación Códigos-códigos
Partiendo que, cada documento obedece a una fuente de evidencia inductiva (entrevistas, grupo focal, encuestas), se procede a mostrar los hallazgos derivados de la contrastación códigos-códigos para corroborar a través del muestreo teórico (Strauss y Corbín, 2002) cuáles son los códigos que alcanzan el punto de saturación teórica pautado por el investigador.
Para tales efectos, se asumieron como códigos saturados o dominios semánticos aquellos que se legitiman a partir de su presencia en el discurso de tres o más acompañantes epistémicos, siendo estos: acompañamiento de expertos, dominio de políticas de protección de datos, pensamiento crítico, plagio, privacidad y seguridad de datos, acceso a recursos educativos, personalización de la educación, manejo de diversas fuentes de datos, acceso a la información, análisis de datos, potencia la productividad, creación de contenido digital, reducción de tiempos, automatización de procesos, garantizar transparencia, formación ética digital, integridad académica, desarrollo educativo y respeto al derecho de autor.
Adicionalmente, los códigos disruptivos que se integrarán a la teorización bajo el principio de contribución novedosa, fueron: dependencia a la IA, verificación de los resultados, confianza ciega y sesgo en la toma de decisiones.
Contrastación Co-ocurrencia
A partir del análisis de co-ocurrencia construido en ATLAS.ti, se puede visualizar la relación que existen entre códigos que comparten enunciados. Para conocer las asociaciones entre dominios semánticos, se construyó un gráfico de fuerza a objeto de poder identificar los nodos con mayor densidad, los cuales representan los significados con proximidad a otros. Es decir, aquellos conceptos que, al emerger de los datos protocolares, de manera accidental lo hacen junto a otros en reiteradas ocasiones, configurándose un nuevo patrón. En este sentido, estas co-ocurrencias derivaron significados adicionales, detalles a continuación:

Figura 3: Contrastación Co-ocurrencia
Nota: Elaboración propia (2024)
Tal como se observa, en el núcleo del gráfico se encuentra representado el dominio semántico «Formación en ética digital», el cual crea nodos junto a «Garantizar transparencia», «Automatización de procesos», «Personalización de la educación» y «Potencia la productividad». Estas asociaciones confirman las descripciones presentadas al esbozar el fenómeno, cuyo presupuesto consistió en desviar el foco del plagio y centrarlo en la necesidad de una robusta formación ética, sin descuidar las prácticas educativas monitoreadas. Si bien es cierto que la automatización de los procesos potencia la productividad, también lo es que, cuando existe una conciencia ética sólida, la transparencia está garantizada.
Discusión
Contrastación teórica
En este momento, que continúa correspondiendo al filtro legitimización epistémica, se procede a contrastar el hallazgo inductivo definido contextualmente durante las fases anteriores de la investigación, con el hallazgo deductivo publicado en la literatura científica. Los aportes que se derivaron fueron explicitados en la teorización emergente junto a las relaciones establecidas en el diagrama integrador denominado entramado epistémico.
Consideraciones éticas
De la evidencia empírica analizada a partir de las percepciones de los acompañantes epistémicos, la formación en ética digital se presenta como una de las responsabilidades más inminentes que se debe abordar en las instituciones de educación superior, pues de manera concatenada, se estarían consolidando conductas éticas orientadas a fortalecer la integridad científica en la comunidad estudiantil al momento de presentar sus productos académicos, incluso aquellos con aspiraciones a ser publicados. En este sentido, plantea
Floridi (2019), que la formación en ética digital se focaliza en establecer principios, lineamientos, códigos o marcos para orientar éticamente el uso de las herramientas digitales, particularmente en IA, en beneficio de la humanidad y el cuidado del medio ambiente. Así mismo, Macfarlane, et al., (2014) consideran que la integridad académica cobija los valores y las actuaciones de los académicos en todos los aspectos de su práctica, siendo la ética en la investigación el foco predominante.
Las consideraciones éticas anteriores invitan a todos aquellos que hacen uso de las innovaciones tecnológicas al respeto, privacidad y seguridad de los datos a los cuales poseen acceso a través de la IA. No obstante, comentan los informantes, existen normatividades en diferentes países que regulan esta práctica, pero ha de partirse de principios éticos que impidan por sentido común la difusión de contenidos que hagan uso de datos sensibles de terceros. Sobre este aspecto, Guarda y Zannone (2009) consideran que, desde las IES, se ha de impedir la difusión de información sensible o confidencial de las personas, regido por la normativa de protección de datos que se adecue a cada región.
Contribuciones
La percepción de los docentes ante el uso de la IA por parte de los aprendices es juzgada positivamente a partir de las siguientes contribuciones. La primera de ellas es el acceso a la información, pues los acompañantes epistémicos comentaron que años anteriores el adquirir libros o el buscar información era costoso, limitado y demorado, pues también requería desplazarse a bibliotecas, importar textos o conformarse con las búsquedas en la web, que, en ocasiones, se impedía su posibilidad de verificación. Esto no implica que las respuestas o datos generados por la IA sean confiables, pero existen IA especializadas de uso académico y científico que muestran rápidamente documentos pertenecientes a bases de datos científicas. En palabras de Chowdhury y Foo (2012), el acceso a la información incluye procesos como selección, procesamiento, indexación, búsqueda, recuperación y uso de información por parte de los estudiantes para satisfacer sus necesidades de información.
Esta definición coincide en grandes aspectos con la evidencia analizada, incluso, inicialmente había surgido de la voz de los sujetos el concepto “curaduría” que involucraba tales procesos, desde una visión automatizada. Según Corallo, et al., (2019) la automatización de procesos optimiza la gestión de documentos, información y actividades con la intencionalidad de mejorar la eficiencia y eficacia de la praxis educativa.
Sin lugar a duda, múltiples significados se aglomeran para dar sentido a este enunciado, por ejemplo: la reducción de tiempo en la realización de tareas que puede ser aprovechados, en otras que requieran habilidades cognitivas más complejas. Pullinger (2014), opina que esta contribución podría aportar beneficios ambientales y de bienestar al proporcionar más tiempo libre para buscar la felicidad. Otro significado es la potenciación de la productividad, pues permite realizar más tareas durante el día; es decir, implica optimizar los procesos de trabajo, introducir la automatización, utilizar nuevas tecnologías y mejorar la gestión del personal. (Kucherenko, 2023)
Otras contribuciones de la IA destacadas por los docentes son: la posibilidad para crear contenidos educativos digitales (diapositivas, videos, audios, imágenes, resúmenes, entre otros) que permitan dinamizar el proceso de enseñanza y aprendizaje. Kovacevic (2023) expone de manera convergente que la creación de contenidos digitales implica diversas formas textuales y/o multimedia, a menudo utilizados como herramientas de enseñanza para mejorar el conocimiento en cualquier disciplina, lo cual representa tener acceso a los recursos educativos en diversas aplicaciones de uso libre, con calidad y mayor visibilidad en la educación superior. (Hatzipanagos y Gregson, 2015)
Como se ha podido observar, existe relación entre los dominios semánticos inductivos y el cómo estos complementan los enfoques teóricos presentados por los autores; por lo tanto, se continúa con otra contribución relacionada con la IA, se trata de la personalización del aprendizaje, dado que con la IA se pueden crear contenidos personalizados para cada uno de los estudiantes, e incluso que se autoevalúen de manera automática, lo cual facilita el trabajo administrativo del docente y potencia el desarrollo educativo a gran escala. Tetzlaff, et al., (2020) diverge de la perspectiva inicial, en tanto que, infieren que la personalización de la educación pasa por la adaptación sistemática de la instrucción a cada estudiante, utilizando características del alumno medidas repetidamente durante el proceso de aprendizaje. Esta conceptualización se muestra muy técnica, en comparación con la expresada por los informantes.
En cuanto al logro del desarrollo educativo, a partir de las contribuciones anteriores desde el uso de la IA. Knapper (2016) indica que se refiere al crecimiento y la influencia de las prácticas educativas, centrándose en cambios en los enfoques de la enseñanza en las universidades, esta posición reafirma lo comentado por los informantes, pues dentro de la percepción en el uso adecuado de la IA se reconoce el apoyo que brinda al desarrollo de los procesos educativos actuales. Sobre todo, en el análisis de gran cantidad de datos textuales y numéricos, puesto que, se facilita el resumen de textos, extracción de ideas principales, análisis bibliométrico, operaciones matemáticas y estadísticas. Raskind, et al., (2018) de manera coincidente, indican que se busca analizar e interpretar datos para comprender el comportamiento humano, predicciones inferenciales, análisis financiero, e incluso dar voz a las experiencias vividas por las personas, entre otras.
Desafíos
Uno de los desafíos que más interés y preocupación origina entre los docentes, es el de garantizar la transparencia en el uso de la IA, es decir, que los aprendices usen de manera responsable y cuidadosa las aplicaciones de la IA para poder aprehender de manera más dinámica los contenidos. Para ello, ha de declarar cuando sea utilizada y el propósito de su uso. Bola (2009) expresa que la transparencia es un valor adoptado por la sociedad para contrarrestar la corrupción. De cierta forma, el uso inadecuado de la IA en educación representa una mala conducta ética, razón por la cual se hace hincapié en otros dos aspectos:
El primero, el respeto o reconocimiento a los derechos de autor, esto implica, en voz de los informantes, que toda idea de tercero ha de ser citada de manera adecuada. Según Efremova y & Владимировна (2020), el respeto por los derechos de autor se basa en el respeto por la personalidad del autor y es esencial para la protección de beneficios intangibles como las obras creativas de ciencia, literatura y arte; lo cual coincide con la percepción de los docentes.
El segundo significado, la necesidad de verificación de los resultados, exhorta a cuestionar de forma permanente todas las repuestas generadas por la IA, evitar caer en un estado de confianza ciega. Gu, et. al., (2023) considera que validar la asistencia de la IA es crucial y desafiante, ya que implica comprender y verificar la exactitud de los análisis generados por la IA. En efecto, esto corrobora al hallazgo inductivo extraído desde los datos protocolares de los acompañantes epistémicos.
Requerimientos
Asimismo, los docentes desde su percepción también consideran apropiado que exista acompañamiento de expertos o monitores que guíen a los estudiantes al momento de utilizar la IA, esta asistencia representaría una tutoría en el proceso de aprendizaje por IA, así como una vigilancia en relación con su uso adecuado. Parra (2021), comenta que los docentes deben asumir la transformación digital como una dinámica de permanente disrupción de los contextos educativos, en tanto que, el acompañamiento representa un eje integrador que posibilita el desarrollo y concreción de las intenciones pedagógicas planteadas en las sesiones de aprendizaje.
Aunado a esto, uno de los requerimientos más relevante, al considerar el enraizamiento que obtuvo, es el pensamiento crítico. Los docentes opinan que el estudiante ha de agudizar su capacidad de cuestionamiento al momento de tomar las decisiones, debido a que se requiere potenciar su criticidad, teniendo en cuanta todas las opciones y evaluando todos los datos que se le suministra. A su vez, Kuhn (2019) considera que es una práctica dialógica de la cual surge la creación de nuevas ideas y refutaciones.
Lo anterior involucra el conocimiento sobre las políticas de protección de datos, ya que le permitirá la toma de decisiones y en correspondencia evitar consecuencias éticas y sociales. Custers, et al., (2017) infieren que, estas políticas promueven aspectos como la concienciación, la confianza en las acciones, la implementación, la supervisión y el cumplimiento de los deberes. En efecto, en los entornos universitarios, se debiera brindar de manera transversal al currículo aspectos relacionados con la IA.
Riesgos
Por su parte, sería evidente afirmar que el uso de la IA en la educación superior trae consigo una serie de riesgo que involucran a sus desafíos, e incluso al resguardo y vigilancia de las consideraciones éticas, en tanto que, cualquier uso inadecuado conlleva al quebrantamiento de algún principio. Un primer riesgo es la confianza ciega, (over reliance, excesiva confianza) en el uso de la IA. Los informantes consideran que el asumir posturas dogmáticas o de nulo cuestionamiento en altamente riesgoso, pues se presentarían los contenidos tal cual son arrojados por las distintas IA generativas. Dorton y Harper (2022) opinan que la confianza en la IA es un fenómeno multifacético, influenciado por factores como la explicabilidad, el rendimiento y las interacciones con otras personas. Aporte que quizás sea un poco difuso en los momentos actuales, pero como se sabe son procesos que se encuentran en construcción.
Por supuesto, el exceso de confianza lleva a un segundo riesgo, la dependencia en la IA. Los acompañantes epistémicos han podido evidenciar la existencia de una nueva práctica por parte de los estudiantes: todo lo quieren hacer con IA. Sin lugar a duda, esto le generará limitaciones en ciertas habilidades mentales a futuro, ya que la IA debe ser utilizada como un copiloto, siendo el aprendiz o investigador, el piloto del automóvil de la ciencia. Taylor (2023) difiere al comentar que las adicciones digitales representan una reacción a fuerzas históricas y socioculturalmente informadas, que reflejan ansiedad cultural y preocupaciones sobre la productividad, el autogobierno y el autocontrol.
El sesgo en la toma de decisiones constituye otro riesgo en el uso de la IA, debido a que la IA está programada con algoritmos e información sesgada, en esencia. En palabras de los docentes, el aprendiz ha de tener cuidado al momento de seleccionar una opción al momento de la toma de decisiones, pues la IA le puede estar persuadiendo para que tome la que ella considere la apropiada. Al respecto, Chong y Lalla (2020) aportan que esto puede deberse a factores como los recursos disponibles, el entorno, las personas, las percepciones cognitivas erróneas y los principios psicológicos, que pueden influir en la toma de decisiones.
Por último, el riesgo con mayor presencia en toda la evidencia generada y recolectada, el plagio. Una de las consideraciones éticas es el respeto a los derechos de autor, pero también es cierto, la inexistencia de una legislación que regule las actuaciones y los procesos que se pueden desarrollar con IA. Algunos parlamentos, congresos y cortes constitucionales ya han emitido algunas sentencias y normas. Mientras tanto, los docentes consideran la cita y el referenciado como una vía para resguardar su integridad académica y científica. En palabras, muy a tono con los hallazgos inductivos, de Zimba y Gasparyan (2021), el plagio representa una mala conducta ética que deteriora la calidad, la legibilidad y la confiabilidad de los productos académicos, a menudo debido a la falta de creatividad. Se podría agregar, debido a la dependencia, confianza ciega, falta de pensamiento crítico y a la ausencia de un plan de formación en ética digital en la educación superior.

Figura 4. Entramado epistémico
Nota: Elaboración propia (2024)
Teorización emergente: Sensores IA en Educación Universitaria
A continuación, se explican las relaciones finales entre los significados resultantes de manera holística, compleja e integrada. Incluyendo, en este apartado, el constructo teórico derivado de la controversia dialógica entre los hallazgos inductivos-deductivos. A partir de la Categoría Central “Uso de la IA” y de la técnica “filtros epistémicos en el proceso de reducción de la evidencia cualitativa”, utilizada para llegar a extraer los veintitrés dominios y cinco campos semánticos. La metáfora seleccionada para explicar las afirmaciones que integran el constructo se ha denominado Sensores AI en la Educación Universitaria, entendiendo que los sensores recopilan y procesan información que se recibe del entorno, transmitiéndolos a centros en la nube para la toma de decisión. (Zhang y Tao, 2020) Esto implica que la Universidad ha de poseer sensores que recopilen la información sobre el uso de la IA por parte de su comunidad universitaria, en aras de poder intervenir de manera oportuna ante posibles perturbaciones en los procesos de enseñanza y aprendizaje. Se presentan los sensores: ético, verificación, diversificación, transparencia y criticidad.

Figura 2: Sensores IA en educación universitaria
Fuente: elaboración propia (2024)
Sensor ético: La formación en ética digital configura un eje de desarrollo transversal en todas las mallas curriculares de las distintas carreras que se ofertan en las Instituciones de Educación Superior, debido a que, nuestros estudiantes se encuentran de manera permanente inmersos en entornos virtuales asistidos por IA, pero, además, están constantemente influenciados por redes sociales que los persuaden hacia su uso. Esto implica que, aún y cuando existen vacíos legales que se irán construyendo en el tiempo, es la universidad el espacio propicio para contener o mitigar posibles prácticas que atenten contra la integridad académica de su estamento estudiantil.
Sensor verificación: Otra premisa se concentra en la curaduría de contenidos que provienen de la denominada Sociedad de la Información. El acceso y exceso de información distorsiona la intención de cualquier aprendiz al momento de adentrarse a las distintas bases de datos o motores de búsqueda. De allí la relevancia de este sensor en el uso de la IA, en tanto que, se debe enseñar a focalizar la búsqueda, a plantear criterios de búsqueda, mapear las bases de datos o tecnologías académicas basadas en IA (consensus, elicit, perplexity, entre otras) más adecuadas según el tema, priorizar la información necesaria, clasificarla, verificar las fuentes, y finalmente, hacer uso adecuado de ellas para promover el desarrollo educativo; entra tantas opciones a través de contenidos educativos digitales que permitan potenciar la productividad de los aprendices en el menor tiempo posible con el acompañamiento personalizado del docente.
Sensor diversificación: Adicionalmente, la universidad, entre sus responsabilidades intersecas, ha de enseñar la manera correcta de manejar y diversificar las fuentes de datos obtenidos a través de las innovaciones tecnológicas disponibles. La privacidad y seguridad de los datos en el ámbito social, constituye un tema sensible dado que el uso inadecuado de información personal puede generar daños colaterales a terceros, pero incluso, el estudiante universitario en su formación ha de aprender a analizar gran cantidad de datos, pero sobre todo que estos datos han de responder a distintas fuentes de información para evitar posibles sesgos o caer en excesiva confianza hacia las respuestas emitidas por la IA.
Sensor transparencia: este dispositivo obedece a la necesidad de respeto o reconocimiento a los derechos de autor, pues al hacer uso de sus ideas o productos publicados, han de citarse y referenciarse correctamente como práctica que permite evitar el plagio. Además de la necesidad de cuestionamiento de los resultados suministrados por cualquier tecnología con base en IA, e incluso la declaración de su uso, cuál IA se utilizó, para qué fines y la obligación de intervenir o postproducir cualquier contenido generado. Este sensor se interrelaciona con el sensor ético, pues la formación ética apela a comportamientos transparentes.
Sensor criticidad: el uso de la IA en los contextos universitarios, así como todo proceso que sucede en ellos, ha de estar sometida al pensamiento crítico, al cuestionamiento permanente y a la reflexión de cada uno de los estudiantes que interviene en determinada situación de aprendizaje, pues toda formación profesional amerita evaluar escenarios a partir del análisis, interpretación y comprensión de los datos que se recolecten de diversas fuentes para optimizar las tomas de decisiones que garanticen prácticas de aprendizaje exitosas y significativas. Por supuesto, la actitud de cuestionamiento se va construyendo desde el acompañamiento de expertos en IA que guíen la agudización de sentidos para identificar sesgos o información de dudosa procedencia. En efecto, tal posición ubica al estudiante en una posición de independencia frente a la IA, o por lo menos, lo separa de la posibilidad de asumir una confianza excesiva en ella.
Reflexiones finales
Los docentes universitarios reconocen las amplias contribuciones que posee la IA en el campo de la educación, pues se muestran conscientes que la manera de enseñar y la de aprender ha cambiado y seguirá cambiando. Sin embargo, apelan a requerimientos que surgen para evitar posibles riegos, estos se centran en el respeto a los derechos de autor, privacidad y seguridad en el manejo de datos, uso y validación de diversas fuentes, corroborar las respuestas emitidas con IA y actitud de cuestionamiento permanente.
No obstante, se evidenciaron vacíos legales en cuanto a formas de proceder en entornos digitales, incluso, en el uso de herramientas digitales. Por consiguiente, sería conveniente reconfigurar nuestros tratados éticos para que sean pertinentes con las transformaciones digitales que se derivan de las innovaciones tecnológicas, esto implica iniciar la construcción colectiva, a partir de debates abiertos, de acuerdos sobre el uso ético y socialmente responsable de la IA.
Por último, se reconocieron vacíos de conocimientos sobre el uso adecuado de la IA, conductas científicas inapropiadas y desconfianza en las experiencias de aprendizaje. Ciertamente, la formación en el marco de una ética digital constituye un gran desafío para docentes y autoridades universitarias, pero el acto altruista de enseñar y aprender, debe evitar convertirse en escenarios centrados en señalamientos.
Se sugiere, para futuras investigaciones, abordar las percepciones de los estudiantes universitarios sobre el uso de la IA, en aras de comprender otro lado de esta realidad poliédrica.
Declaraciones
Se declara el uso de ChatGPT para traducciones de textos, para mejorar la calidad de la escritura y se utilizó Consensus para sugerir fuentes de datos. La codificación con ATLAS.ti 24 fue inductiva, sin uso de la IA.