EN IA, PASAR DEL PÁNICO A LA APROPIACIÓN

EN IA, PASAR DEL PÁNICO A LA APROPIACIÓN

29 diciembre, 2025 0 Por Rene Davila

Foto: UNAM. Es un artefacto, no una deidad.

Fuente: UNAM

La inteligencia artificial (IA) tiene límites, sesgos algorítmicos, se trata de una mediación, de un artefacto; no es una deidad, un actor humano y tampoco puede tomar decisiones, sostuvo el investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) de la UNAM, Luis Josué Lugo Sánchez.

Es necesario pasar del acceso a su apropiación, integrarla a los procesos y transformarla en prácticas pedagógicas y de investigación éticas; es decir, del pánico a la coproducción de conocimiento.

Hay que asumir responsabilidades en su utilización y pugnar por marcos éticos, que cada día se declaren más detrás de los modelos que empleamos, añadió al participar en la sesión Uso ético de la Inteligencia Artificial en la Investigación, como parte de la Cátedra Extraordinaria de Bioética.

El también director del Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina de la UNAM, comentó que se apuesta por un modelo híbrido donde la IA es parte de diversos entornos, incluido el educativo y el de investigación.

La pregunta es cómo incorporarla de un modo ético y crítico, de tal manera que el pensamiento creativo, humano, tenga un lugar central, recalcó en la sesión virtual organizada por el Programa Universitario de Bioética (PUB).

De acuerdo con un estudio publicado este año por Benavides Lara, Rendón, Escalante, del Pilar Martínez y Sánchez, la IA es una realidad entre la comunidad de la UNAM.

Ejemplo de ello, es que 83 por ciento de los profesores de bachillerato, 70 por ciento de los de licenciatura y 73 por ciento de posgrado recurren a ella; entre los estudiantes, 87 por ciento de los bachilleres; 81 por ciento de alumnas y alumnos de licenciatura y 88 por ciento de posgrado.

Los docentes la emplean para obtener información de un tema que se desconoce, buscar datos bibliográficos, diseñar actividades de aprendizaje y materiales, o analizar datos, entre otros aspectos. El estudiantado para obtener explicaciones de contenidos, localizar información, resolver dudas o estudiar para exámenes, por ejemplo.

Aunque no ha desplazado a la biblioteca, o el trabajo de campo y experimental, “si no conversamos sobre estos temas de manera intergeneracional, y desde marcos dialógicos y no punitivos, corremos el riesgo de que, en un acto de rebelión, se use más IA”, advirtió en la sesión moderada por Carol Hernández Rodríguez, investigadora del PUB.

También alertó que los antiplagios o detectores de similitudes y coincidencias tienen errores de 30 a 70 por ciento, es decir, muy grandes.

Esta no parece ser la solución, porque no alcanzan a cubrir la data y las creatividades de prompt (instrucción o texto que se da a un modelo de inteligencia artificial para que genere una respuesta) en las personas, ni todos los modelos del lenguaje”; además de ChatGPT existe Gemini, Mistral, Latam GPT, DeepSeek, etcétera, y cada uno tiene limitaciones en sus datos.

Por ello, más allá del pánico, pensemos en la apropiación. Los problemas de alfabetización en IA o de su uso deshonesto, están en dotar de acceso y en pensar que esta tecnología implica reproducir ideas acríticamente, procesarlas y comprenderlas, para que mediante el pensamiento crítico se “re-reproduzcan” nuevas posibilidades.

Es fundamental que haya un marco de gobernanza, que se genere legislación y programas de acompañamiento. La Universidad “debe estar presente dotando de diagnósticos y propuestas”.

Es importante establecer límites y protocolos claros desde el principio en las aulas; fomentar la colaboración multi e interdisciplinaria; analizar los desafíos éticos, y desarrollar estrategias que consideren la sensibilización, concientización y alfabetización en el rubro y la creación de normas situadas.