Inteligencia Artificial Ética en UH

Marianela Salazar Ramos

Ciencias Sociales
Ingeniería
Derecho
Ingeniería Informática
0

31/03/2026

La inteligencia artificial (IA) ya está transformando cómo enseñamos, aprendemos y gestionamos la vida universitaria. La UH participa del proyecto EthicalAI, en el que instituciones de Latinoamérica y Europa reflexionan sobre lo que implica hacer uso ético de la IA en educación superior. EthicalAI nace gracias al Programa Erasmus+ (Número de proyecto: 101179117) y está cofinanciado por la Unión Europea.

En marzo de 2026 se realizó en la sede Llorente de UH el segundo workshop en el marco de este proyecto. Esta actividad reunió docentes, estudiantes y personal administrativo de la Universidad con el fin de analizar lo que la UH viene haciendo en temas de IA y discutir cómo se puede mejorar. Durante la actividad, los participantes consideraron los beneficios y riesgos que la IA puede presentar a diferentes usuarios, así como los desafíos legales que el uso de la IA trae consigo.


La actividad también dio pie para presentar el marco regulatorio que EthicalAI ha construido y que ya tiene su versión en español. El marco reúne pautas claras sobre transparencia, equidad, privacidad y supervisión humana.

¿Qué es y para qué sirve el marco regulatorio?

Es una guía práctica que puede ser ajustada por instituciones de educación superior para que integren la IA de forma ética, segura y alineada con sus valores académicos. El marco regulatorio propone un enfoque colaborativo, con evaluaciones de impacto, gobernanza de datos y supervisión humana en los procesos clave que integren IA.


Los 5 pilares RAFTS

El marco se sostiene en cinco principios que ayudan a tomar decisiones responsables sobre IA en la universidad y que se tienen el acrónimo RAFTS (que significa “balsa” en inglés):

1. Responsabilidad: anticipar impactos y actuar con integridad.

2. Rendición de cuentas: mecanismos claros de supervisión y corrección.

3. Equidad: prevenir sesgos y discriminación en algoritmos y datos.

4. Transparencia: explicar criterios y decisiones asistidas por IA.

5. Sostenibilidad: soluciones viables a largo plazo, con cuidado ambiental y social.


¿Qué propone el marco regulatorio para las universidades?

· Gobernanza y comités: creación de estructuras internas como comités de ética en IA, que sean capaces de guiar la toma de decisiones.

· Evaluaciones de impacto: antes, durante y después de desplegar herramientas de IA (con monitoreo continuo y transparencia de resultados).

· “Human-in-the-Loop”: la decisión final sigue siendo humana; la IA apoya, pero no sustituye al humano.

· Datos y privacidad: consentimiento informado, minimización de datos (recolectar sólo los necesario), cifrado de datos y derecho a impugnar decisiones automatizadas.

· Capacitación: alfabetización y ética de IA para docentes, personal y estudiantes.

· Inclusión y accesibilidad: uso de IA para cerrar brechas, apoyar diversidad y discapacidad y evitar nuevas desigualdades.

· Sostenibilidad: eficiencia energética, evaluación de huella y alineamiento con Objetivos de Desarrollo Sostenible.

Para acceder al marco regulatorio propuesto visite el sitio web del proyecto: https://www.ethicalaiucr.info/Regulatory_Framework.php