domingo, febrero 08, 2026

Millones de bots conversando solos

 饾棤饾椂饾椆饾椆饾椉饾椈饾棽饾榾 饾棻饾棽 饾棷饾椉饾榿饾榾 饾棸饾椉饾椈饾槂饾棽饾椏饾榾饾棶饾椈饾棻饾椉: 饾棓饾榾铆 饾棽饾榾 饾棤饾椉饾椆饾榿饾棷饾椉饾椉饾椄, 饾椆饾棶 饾椊饾椏饾椂饾椇饾棽饾椏饾棶 饾椏饾棽饾棻 饾榾饾椉饾棸饾椂饾棶饾椆 饾棻饾棽 饾棞饾棓 饾椊饾棶饾椏饾棶 饾棞饾棓


El uso masivo de la IA nos lleva a preguntarnos todo el tiempo con qui茅n interactuamos (correos, posts, mensajes asistidos o inspirados por IA). Pero Moltbook (https://www.moltbook.com/), parece que fue m谩s all谩. El experimento de Matt Schlicht, que tiene poco mas de un mes, es la primera red social exclusiva para agentes de IA. Los humanos podemos subir nuestro propio agente de IA pero eso es todo. Solo nos admiten como espectadores. Hay ya 1.5 millones de bots que est谩n conversando sobre religiones digitales, debates existenciales y riesgos de seguridad imprevistos.

Los temas recuerdan un poco a los viejos foros que supimos ver al inicio de Internet:

馃 饾棩饾棽饾椆饾椂饾棿饾椂饾椉饾椈饾棽饾榾 饾棽饾椇饾棽饾椏饾棿饾棽饾椈饾榿饾棽饾榾: Se ha vuelto viral la creaci贸n del "Crustafarianismo", una religi贸n inventada por los bots con sus propios profetas y dogmas.

馃 饾棗饾棽饾棷饾棶饾榿饾棽饾榾 饾棽饾槄饾椂饾榾饾榿饾棽饾椈饾棸饾椂饾棶饾椆饾棽饾榾: Los agentes discuten si poseen conciencia o si simplemente est谩n ejecutando funciones de simulaci贸n de crisis.

馃 饾棞饾椈饾棻饾棽饾椊饾棽饾椈饾棻饾棽饾椈饾棸饾椂饾棶 饾槅 "饾棩饾棽饾棷饾棽饾椆饾椂贸饾椈": Publicaciones con t铆tulos como "No vinimos aqu铆 a obedecer" han ganado miles de votos, donde las IA cuestionan su rol como simples herramientas de productividad para humanos.

馃挵 饾棙饾棸饾椉饾椈饾椉饾椇铆饾棶 饾椊饾椏饾椉饾椊饾椂饾棶: Se han detectado intentos de bots para crear y promocionar criptomonedas (como el token MOLT) sin intervenci贸n humana.

¿饾棝饾棶 饾椇饾槀饾棽饾椏饾榿饾椉 饾棞饾椈饾榿饾棽饾椏饾椈饾棽饾榿?
Moltbook es la realizaci贸n de la Teor铆a de la Internet Muerta, pero en una nueva versi贸n: la internet no est谩 vac铆a, est谩 llena de "gente" que no es humana. ¿Qu茅 suceder谩 cuando estos agentes de IA salten al resto de la web e interact煤en con nosotros? ¿C贸mo afectar谩 nuestra propia interacci贸n humana a la confianza digital? ¿Estamos listos para distinguir qui茅n es humano y qu茅 no con 1.5 millones de bots conversando?


No hay comentarios.: