¿Está la IA inventando la realidad? Cuando las alucinaciones no son tan fáciles de reconocer
Aquellas alucinaciones que comenzaron como errores de la inteligencia artificial podrían estar escalando en una espiral confusa en la cual datos falsos o verdades parciales se propagan en una espiral donde rastrear la fuente original puede ser muy difícil.
Clayton Moulynox, en un reciente artículo de "The Generator", comentó una experiencia que debería ponernos en alerta. En su búsqueda de ejemplos reales de los beneficios del diseño organizacional asistido por IA dió con una estadística impactante: "Compañías como Siemens han reportado ganancias de eficiencia operativa de más del 25% utilizando software de diseño organizacional impulsado por IA". El dato parecía altamente interesante y prometedor.
Una espiral de desinformación
Al verificar la fuente citada por Perplexity – una publicación en el blog de una empresa desconocida – una nota al pie decía: "Este artículo fue generado con la asistencia de inteligencia artificial." Tras rastrear las fuentes originales, el autor, no encontró ninguna que respaldara lo que afirmaba el blog. Por lo tanto, no se trataba de un simple error. Lo que se produce es un esquema piramidal de desinformación" donde una IA inventa un hecho fáctico y otra IA lo promueve como verdadero, y así sucesivamente, alimentando incluso futuros datos de entrenamiento de la IA. Esta especie de teléfono descompuesto podría ser, entre otras cosas, una peligrosa matriz para la toma de decisiones asistidas por IA.
Más alucinaciones riesgosas
Moulynox advierte que esta retroalimentación de errores podría filtrarse en áreas críticas como la salud, la justicia, la historia, la ciencia, las noticias, las decisiones empresariales y la investigación académica. A diferencia de la desinformación humana, que se propaga a una velocidad limitada, la desinformación generada por IA podría hacerlo a una velocidad exponencialmente mayor. Si bien la información errónea o falsa siempre ha existido las tecnologías de la IAG pueden elevarlas en gran medida por su velocidad y espacio para escalar.
Estamos, entonces, frente a un escenario inquietante:
La verdad se vuelve esquiva: Cuando la desinformación se recicla suficientes veces, distinguir entre hecho y ficción se vuelve extremadamente difícil.
La repetición otorga credibilidad: Tendemos a creer más en la información que encontramos en múltiples fuentes, incluso si todas provienen de una única "alucinación" inicial.
La investigación se quiebra: Si las herramientas de IA utilizadas para la investigación reproducen falsedades, la integridad de la creación de conocimiento está en riesgo.
El pensamiento crítico se debilita: Al externalizar la recopilación y el análisis de información a la IA, nuestra propia capacidad de detectar “basura” podría atrofiarse.
La verificación como superpoder en la era de la IA
Moulynox, a pesar de ser un defensor de la IA, hace un llamado urgente a fortalecer la alfabetización informacional en todos los niveles. Necesitamos aprender a verificar fuentes, reconocer las señales de información fabricada y desarrollar el hábito de contrastar la información antes de aceptarla como verdad.
En un mundo donde la IA puede generar información falsa con tanta facilidad, nuestra capacidad de ser escépticos y verificar la información se convierte en una ventaja competitiva. Desarrollar estos criterios es fácil de enunciar y no tan fácil llevarlo adelante. La IA puede asistirnos en múltiples tareas e incluso reemplazarnos en más de una función, pero entender de qué se trata lo que sea que suceda de ahora en más sigue siendo tan valioso como siempre.
Leer el artículo completo: