viernes, mayo 30, 2025

Casos imaginarios de aulas extendidas

Infografía Interactiva: Casos de Escuelas

Aulas Extendidas

Casos imaginarios

🌳 Escuela del Arbol

Situación: Escuela primaria en área rural con conectividad a Internet irregular o inexistente en muchos hogares. Los docentes envían tareas impresas o usan WhatsApp para comunicación básica. Dificultad para llegar con propuestas y formación en zonas rurales. 1 de cada 4 alumnos no cuenta con los medios para la virtualidad a nivel general.

☀️ Escuela del Sol

Situación: Escuela primaria urbana con alta capacidad tecnológica docente, muchos ya usaban diversas herramientas digitales por iniciativa propia (blogs, Google Classroom, etc.). No hay una herramienta digital centralizada ni comunicación formal unificada.

🏞️ Escuela del Parque

Situación: Escuela primaria donde se identificó una pérdida significativa del vínculo con algunos estudiantes y familias. Necesidad de involucrar a las familias y apoyarlas en el acompañamiento del aprendizaje de niños con escasa autonomía digital.

💡 Escuela del Faro

Situación: Escuela primaria con cuerpo docente interesado en incorporar metodologías de enseñanza más activas y aprovechar el potencial de recursos multimedia e interactivos (videos, simuladores, juegos). Actualmente usan principalmente PDFs y documentos de texto.

✨ Escuela del Encuentro

Situación: Escuela primaria con proyectos institucionales sólidos (huerta, radio, lectura). Buscan que la plataforma digital potencie e integre estos proyectos y el trabajo interdisciplinario.

© 2025 Infografía Interactiva de Casos Escolares. Desarrollado con asistencia de Gemini 2.5 PRO.

jueves, abril 17, 2025

¿Está la IA inventando la realidad? Cuando las alucinaciones no son tan fáciles de reconocer

 ¿Está la IA inventando la realidad? Cuando las alucinaciones no son tan fáciles de reconocer

Aquellas alucinaciones que comenzaron como errores de la inteligencia artificial podrían estar escalando en una espiral confusa en la cual datos falsos o verdades parciales se propagan en una espiral donde rastrear la fuente original puede ser muy difícil.

Clayton Moulynox, en un reciente artículo de "The Generator", comentó una experiencia que debería ponernos en alerta. En su búsqueda de ejemplos reales de los beneficios del diseño organizacional asistido por IA dió con una estadística impactante: "Compañías como Siemens han reportado ganancias de eficiencia operativa de más del 25% utilizando software de diseño organizacional impulsado por IA". El dato parecía altamente interesante y prometedor.

Una espiral de desinformación

Al verificar la fuente citada por Perplexity – una publicación en el blog de una empresa desconocida – una nota al pie decía: "Este artículo fue generado con la asistencia de inteligencia artificial." Tras rastrear las fuentes originales, el autor, no encontró ninguna que respaldara lo que afirmaba el blog. Por lo tanto, no se trataba de un simple error. Lo que se produce es un esquema piramidal de desinformación" donde una IA inventa un hecho fáctico y otra IA lo promueve como verdadero, y así sucesivamente, alimentando incluso futuros datos de entrenamiento de la IA. Esta especie de teléfono descompuesto podría ser, entre otras cosas, una peligrosa matriz para la toma de decisiones asistidas por IA.

Más alucinaciones riesgosas

Moulynox advierte que esta retroalimentación de errores podría filtrarse en áreas críticas como la salud, la justicia, la historia, la ciencia, las noticias, las decisiones empresariales y la investigación académica. A diferencia de la desinformación humana, que se propaga a una velocidad limitada, la desinformación generada por IA podría hacerlo a una velocidad exponencialmente mayor. Si bien la información errónea o falsa siempre ha existido las tecnologías de la IAG pueden elevarlas en gran medida por su velocidad y espacio para escalar.

Estamos, entonces, frente a un escenario inquietante:

  • La verdad se vuelve esquiva: Cuando la desinformación se recicla suficientes veces, distinguir entre hecho y ficción se vuelve extremadamente difícil.

  • La repetición otorga credibilidad: Tendemos a creer más en la información que encontramos en múltiples fuentes, incluso si todas provienen de una única "alucinación" inicial.

  • La investigación se quiebra: Si las herramientas de IA utilizadas para la investigación reproducen falsedades, la integridad de la creación de conocimiento está en riesgo.

  • El pensamiento crítico se debilita: Al externalizar la recopilación y el análisis de información a la IA, nuestra propia capacidad de detectar “basura” podría atrofiarse.

La verificación como superpoder en la era de la IA

Moulynox, a pesar de ser un defensor de la IA, hace un llamado urgente a fortalecer la alfabetización informacional en todos los niveles. Necesitamos aprender a verificar fuentes, reconocer las señales de información fabricada y desarrollar el hábito de contrastar la información antes de aceptarla como verdad.

En un mundo donde la IA puede generar información falsa con tanta facilidad, nuestra capacidad de ser escépticos y verificar la información se convierte en una ventaja competitiva. Desarrollar estos criterios es fácil de enunciar y no tan fácil llevarlo adelante. La IA puede asistirnos en múltiples tareas e incluso reemplazarnos en más de una función, pero entender de qué se trata lo que sea que suceda de ahora en más sigue siendo tan valioso como siempre.


Leer el artículo completo:

https://medium.com/the-generator/when-ais-start-believing-other-ais-hallucinations-we-re-f-ed-4cdf9225a4f2