
Descripción de Episodio 2. t33p
En este segundo episodio hablaremos sobre los principios éticos, responsabilidad y los métodos pedagógicos sugeridos. 4c2og
Este contenido se genera a partir de la locución del audio por lo que puede contener errores.
Bienvenidas y bienvenidos.
Qué bueno que nos acompañan de nuevo en Diálogos Educativos del Nuevo Orden.
Seguimos esta exploración con Abisai y Claudia.
Este es nuestro segundo diálogo de cuatro.
Hoy nos vamos a meter de lleno con los principios éticos y también con la responsabilidad y los métodos pedagógicos que sugiere la UNESCO para la inteligencia artificial en la educación.
Todo esto, claro, basado en su marco de competencias para estudiantes.
La misión, pues, sigue siendo la misma.
Sacar ideas prácticas, ejemplos concretos para la sociedad y para la escuela sobre cómo podemos enseñar y usar la IA de forma responsable.
A ver, empecemos a desglosar esto.
El marco de la UNESCO pone mucho énfasis en un enfoque centrado en el ser humano.
Derechos humanos, inclusión, equidad, como la base de todo.
¿Por qué es tan vital este anclaje ético? No es solo tecnología al final.
Es que es fundamental.
Absolutamente.
Porque la IA sí es muy potente, pero no puede ni debe reemplazar el pensamiento crítico, ni tampoco socavar la dignidad humana.
El marco, fíjate, propone principios muy claros.
Cosas como no hacer daño, la proporcionalidad, la no discriminación, claro, también la sostenibilidad, la determinación humana, o sea, que nosotros tengamos el control final y, muy importante, la transparencia.
Eso de la determinación humana, ¿cómo se ve en la práctica? Pienso en un aula donde una IA sugiere rutas de aprendizaje.
¿Quién decide al final? ¿El estudiante? ¿El docente? Justo ahí está el meollo del asunto ético.
Implica usar la IA como una herramienta de apoyo, no como un reemplazo de la decisión humana.
Y para eso hay que entender y combatir los sesgos.
Uf, los sesgos.
Obtener un consentimiento que sea informado y deliberado.
No solo un clic rápido.
Exacto.
Que se entienda bien qué datos se usan, cómo, por qué.
Sobre todo con menores.
Y bueno, no hay que olvidar el impacto ambiental.
Entrenar estos modelos grandes de IA consume muchísima energía.
Cierto.
Eso casi no se menciona.
Tiene una huella de carbono importante.
Y esto también es parte de la responsabilidad.
Lo interesante es, bueno, la urgencia de crear esta conciencia crítica desde ya, desde la escuela.
Vale.
Entendidos los principios.
Pero, ¿cómo pasamos a la acción? El documento habla de formar ciudadanos responsables.
¿Qué significa eso en el día a día? Implica varias capas, diría yo.
Primero, pues reconocer que los creadores, los proveedores de IA, tienen responsabilidades legales y éticas sobre sus sistemas.
Pero, ojo, la responsabilidad no solo de ellos.
Cada persona, cada uno de nosotros, al interactuar con IA, debe mantener el control humano y asumir responsabilidad por cómo la usa.
Suena lógico, sí, pero a veces como que se diluye en la práctica, ¿no? Totalmente.
Por eso hay que fomentar habilidades muy concretas.
Por ejemplo, saber cómo proteger tus datos personales, ser capaz de detectar y no difundir desinformación o contenido dañino.
Como los discursos de odio que a veces se amplifican.
Exacto.
Y también conocer las regulaciones, las que existen y las que vienen.
Es como una autodisciplina, pero informada, activa.
Comprendido el qué y el por qué.
Ahora, la pregunta del millón para los educadores, el cómo.
Si estos son los principios, ¿qué vehículos pedagógicos nos sugiere la UNESCO? Pues mira, la UNESCO va por métodos activos y adaptados a cada edad.
No se trata de dar una clase teórica de ética y ya, sino de vivirla, de experimentarla.
Por ejemplo, debates.
Debates sobre dilemas.
Sí, dilemas éticos reales o hipotéticos.
Hasta dónde llega la autonomía de una IA.
O analizar casos reales de conflictos éticos.
Otra cosa muy potente son las simulaciones.
Imagina un juicio simulado.
¿Un juicio? Sí, donde se evalúen responsabilidades sobre una IA que falló usando quizás leyes hipotéticas o escenarios de riesgo para aprender a identificar peligros.
Los estudios de caso, claro, también ayudan muchísimo a ver controversias complejas.
Eso de las simulaciones suena muy bien, pero ¿cómo te aseguras de que no se quede en un juego y ya? Que sí profundice.
La clave está en el diseño y en cómo lo facilita el docente.
Tienen que conectar directo con los principios.
Argumentar sobre transparencia, equidad, responsabilidad.
No es solo jugar, es reflexionar críticamente mientras actúas.
Otras ideas, diseñar kits de ética personales.
¿Kits de ética? Sí, para la reflexión individual o actividades desconectadas sin tecnología para que los conceptos como que aterricen mejor.
Y claro, el aprendizaje basado en proyectos sobre todo en niveles más avanzados y hasta la gamificación bien usada.
Comentarios de Episodio 2. 221d40