martes, diciembre 23, 2025

¿Cada día más tontos?

Las preguntas casi no han cambiado

Me dedico a la tecnología educativa hace más de 25 años y no es la primera vez que los gurús se sorprenden desmesuradamente ante la innovación y afirman que nos encontramos ante un dilema totalmente nuevo. Si tenemos que ser honestos sobre la pregunta del momento, sobre si los recursos digitales están erosionando nuestra inteligencia, debemos decir que, en realidad, es una conversación que lleva décadas. Y en un punto, hasta puede parecernos reiterada, obvia y aburrida.
Google no fue el primero, pero hizo mucha diferencia. Por eso ya, hace 17 años, Nicholas Carr publicó un artículo icónico en The Atlantic que se preguntaba "¿Está Google volviéndonos estúpidos?". En aquel entonces, Carr ya advertía que Internet estaba "reprogramando" nuestros circuitos neuronales y alterando la capacidad de concentración. Lo que antes era una inmersión natural en libros y artículos extensos se convirtió en una lucha; el cerebro empezó a preferir el "escaneo" rápido de información y la búsqueda inmediata de datos, sacrificando la lectura profunda. La sintesis para ganarle a la cantidad empezaba a ingnorar detalles, matices y sutilezas. ¿Estábamos externalizando nuestra memoria y perdiendo la capacidad de retener conocimiento?
Como sucede siempre, de tan preocupados que estábamos por todo eso, no vimos hacia dónde evolucionaba la tecnología. La irrupción de la IA generativa, llevó a que estas preocupaciones escalaran aceleradamente a un segundo nivel. Como muy bien describe French (cuyo post original en Medium comparto al pie), ya no solo delegamos la búsqueda de datos (como hacíamos con Google), sino que corremos el riesgo de externalizar el pensamiento, la creatividad y hasta el análisis. Mientras que con los motores de búsqueda era evidente la necesidad de utilizar el pensamiento crítico para enteder los resultados, la IA ofrece respuestas depuradas cuya interpretación puede ser una caja negra para el usuario. Esto nos sitúa ante un riesgo psicológico fascinante y peligroso: el Efecto Dunning-Kruger. Se trata de un conocido sesgo cognitivo según el cual las personas con escasa habilidad o conocimiento en un tema sobreestiman sus propias capacidades. La paradoja de este sesgo es que, por el contrario, los expertos que realmente saben sobre un tema tienden a subestimar su competencia o incluso asumen que los demás tienen su mismo nivel de conocimiento.

¿Hacia dónde vamos?
Se dice a menudo que "la IA no te quitará el trabajo, sino alguien que sepa usar la IA". Pero quizá esto no sea tan simple porque hay diferentes formas de utilizar la IA y aquellos que usen la tecnología para eludir el pensamiento crítico serán los más vulnerables y fáciles de reemplazar. Y
De todas formas, como ha pasado antes, es posible que estemos subestimando el futuro. Tal vez lo más importante sea lo unico que podemos hacer por el momento: estar muy conscientes de la etapa que estamos transitando en estos años de cambios enormes.



Les dejo los artículos que he mencionado para quienes quieran profundizar:

https://medium.com/wise-well/is-chatgpt-making-us-stupid-c9305bd08bf1

https://www.theatlantic.com/magazine/archive/2008/07/is-google-making-us-stupid/306868/


viernes, mayo 30, 2025

Casos imaginarios de aulas extendidas

Infografía Interactiva: Casos de Escuelas

Aulas Digitales Extendidas

Casos imaginarios

2025 - Diseñado con Asistencia de Gemini 2.3 PRO

jueves, abril 17, 2025

¿Está la IA inventando la realidad? Cuando las alucinaciones no son tan fáciles de reconocer

 ¿Está la IA inventando la realidad? Cuando las alucinaciones no son tan fáciles de reconocer

Aquellas alucinaciones que comenzaron como errores de la inteligencia artificial podrían estar escalando en una espiral confusa en la cual datos falsos o verdades parciales se propagan en una espiral donde rastrear la fuente original puede ser muy difícil.

Clayton Moulynox, en un reciente artículo de "The Generator", comentó una experiencia que debería ponernos en alerta. En su búsqueda de ejemplos reales de los beneficios del diseño organizacional asistido por IA dió con una estadística impactante: "Compañías como Siemens han reportado ganancias de eficiencia operativa de más del 25% utilizando software de diseño organizacional impulsado por IA". El dato parecía altamente interesante y prometedor.

Una espiral de desinformación

Al verificar la fuente citada por Perplexity – una publicación en el blog de una empresa desconocida – una nota al pie decía: "Este artículo fue generado con la asistencia de inteligencia artificial." Tras rastrear las fuentes originales, el autor, no encontró ninguna que respaldara lo que afirmaba el blog. Por lo tanto, no se trataba de un simple error. Lo que se produce es un esquema piramidal de desinformación" donde una IA inventa un hecho fáctico y otra IA lo promueve como verdadero, y así sucesivamente, alimentando incluso futuros datos de entrenamiento de la IA. Esta especie de teléfono descompuesto podría ser, entre otras cosas, una peligrosa matriz para la toma de decisiones asistidas por IA.

Más alucinaciones riesgosas

Moulynox advierte que esta retroalimentación de errores podría filtrarse en áreas críticas como la salud, la justicia, la historia, la ciencia, las noticias, las decisiones empresariales y la investigación académica. A diferencia de la desinformación humana, que se propaga a una velocidad limitada, la desinformación generada por IA podría hacerlo a una velocidad exponencialmente mayor. Si bien la información errónea o falsa siempre ha existido las tecnologías de la IAG pueden elevarlas en gran medida por su velocidad y espacio para escalar.

Estamos, entonces, frente a un escenario inquietante:

  • La verdad se vuelve esquiva: Cuando la desinformación se recicla suficientes veces, distinguir entre hecho y ficción se vuelve extremadamente difícil.

  • La repetición otorga credibilidad: Tendemos a creer más en la información que encontramos en múltiples fuentes, incluso si todas provienen de una única "alucinación" inicial.

  • La investigación se quiebra: Si las herramientas de IA utilizadas para la investigación reproducen falsedades, la integridad de la creación de conocimiento está en riesgo.

  • El pensamiento crítico se debilita: Al externalizar la recopilación y el análisis de información a la IA, nuestra propia capacidad de detectar “basura” podría atrofiarse.

La verificación como superpoder en la era de la IA

Moulynox, a pesar de ser un defensor de la IA, hace un llamado urgente a fortalecer la alfabetización informacional en todos los niveles. Necesitamos aprender a verificar fuentes, reconocer las señales de información fabricada y desarrollar el hábito de contrastar la información antes de aceptarla como verdad.

En un mundo donde la IA puede generar información falsa con tanta facilidad, nuestra capacidad de ser escépticos y verificar la información se convierte en una ventaja competitiva. Desarrollar estos criterios es fácil de enunciar y no tan fácil llevarlo adelante. La IA puede asistirnos en múltiples tareas e incluso reemplazarnos en más de una función, pero entender de qué se trata lo que sea que suceda de ahora en más sigue siendo tan valioso como siempre.


Leer el artículo completo:

https://medium.com/the-generator/when-ais-start-believing-other-ais-hallucinations-we-re-f-ed-4cdf9225a4f2


miércoles, noviembre 20, 2024

La transparencia como factor crítico en los usos educativos de la IA

Este este artículo en prensa analiza la importancia de la transparencia en el uso de la inteligencia artificial generativa (IAG) en la educación, resaltando su valor ético y pedagógico. Basado en una investigación sobre la implementación de IAG en el diseño didáctico, explora el impacto de estos recursos como asistentes del docente. Se propone que, al igual que se espera que los estudiantes informen sobre el uso de IAG en sus producciones, los docentes también deberían hacerlo cuando utilizan estas herramientas en la preparación de sus clases. 

A fin de atender este propósito, el trabajo revisa la escala AIAS de Perkins et al. (2024) y la adaptación de De Haro (2024), que gradúa los niveles de uso de IA en instancias de evaluación. A partir de estas referencias, se desarrolla la escala EIADD, que adapta la graduación para describir el nivel de intervención de la IA en el diseño didáctico, cuya síntesis puede verse en la siguiente infografía:



Finalmente, se enfatiza la necesidad de fomentar un uso transparente y crítico de la IAG, subrayando que su implementación puede influir en los procesos educativos, afectando no solo aspectos cognitivos, sino también sociales, emocionales y éticos.


Para ver el articulo completo: https://shorturl.at/DxAd8