Ayer por la mañana, entré a Facebook y vi una imagen del Coliseo convertido en parque acuático. En LinkedIn, todos estaban ocupados transformando sus fotos de perfil en personajes de Studio Ghibli, gracias a la última actualización de ChatGPT. Threads me mostró un video donde el elenco de “Severance” aparece como bebés en Lumon. Y en X, vi una imagen generada por Grok de Elon Musk y Donald Trump en una pose que preferiría no haber visto.
No soy solo yo, ¿verdad? Las redes sociales se han convertido en un torbellino de contenido sintético. Ya hemos hablado antes del aumento del “AI slop” – una mezcla de arte incómodo y sueños extraños. Y claro, el algoritmo me está mostrando cosas que cree que me interesan – bebés de “Severance”, inspiración para viajar, y una buena dosis de burlas hacia Musk. Eso tiene sentido.
Pero sigo pensando: ¿ha arruinado la IA las redes sociales? ¿Es este caos inofensivo o está reconfigurando silenciosamente nuestra percepción de la verdad, la confianza y la realidad?
Los cuatro jinetes del AI slopocalypse
Uno de los mayores problemas con el contenido generado por IA es la enorme cantidad – y proviene de todos lados. Evangelistas de la IA, tus compañeros de trabajo, tus amigos, tu abuela (que probablemente ni siquiera se da cuenta de lo que está compartiendo) y marcas que definitivamente deberían saberlo mejor.
Para entender este lío, hablé con Joe Goulcher, un director creativo y experto en redes sociales. Trabaja con marcas en esto a diario y tiene una visión privilegiada de la inundación de “AI slop”. Según Joe, el contenido de IA tiende a caer en cuatro “estrategias” distintas – “como un virus”, me dice.
1. **AI slop funcional**: “Contenido mal hecho que es básicamente imágenes de stock utilizadas para llenar un vacío donde debería haber una imagen”, explica Goulcher. “Es lo más básico, y apenas hay pensamiento consciente detrás de por qué o qué es”. Este es el nivel de menor esfuerzo. Visuales insípidos añadidos a publicaciones solo para tener algo ahí.
2. **Clickbait slop**: “Contenido que nos hace detenernos y pensar ‘esto es asqueroso y malo’, pero está diseñado para generar conversación”, dice Goulcher. Este es el más insidioso. No intenta ser bueno, solo lo suficientemente malo como para volverse viral.
3. **La publicación de ‘¡mira lo que hice!’**: “Aquí es donde la gente usa IA para crear algo que se asemeja a ‘El Señor de los Anillos’, ‘Star Wars’ u otra gran propiedad intelectual porque está entrenada en eso”, me dice Goulcher. “Dicen cosas como ‘¡mira lo que hice en diez minutos! Esto va a cambiar la industria y deberías tener miedo y usarlo ahora en lugar de gastar miles con artistas’. Generalmente, esto no tiene buena recepción”.
4. **El contenido genuinamente bueno**: “Hay campañas de IA que son realmente buenas, con propósito, permiso y llenas de efectos visuales increíbles, hechas a mano donde la IA no pudo hacer el trabajo”, dice Goulcher. Sí, algunas marcas lo están haciendo bien, con pensamiento, cuidado y verdadero arte. Pero es raro y generalmente está enterrado bajo un montón de basura.
Desglosarlo así puede parecer sombrío, como si hubiéramos hecho un estudio epidemiológico sobre el contenido más maldito, pero es útil. Categorizar el caos ayuda a explicar por qué el contenido de IA se siente inescapable y por qué tiene tantos matices distópicos.
**IA por el simple hecho de ser IA**
Estamos en una era donde se crea contenido de IA simplemente porque se puede. Personas, marcas, empresas enteras lo están produciendo. No necesariamente porque tengan algo que decir, ni porque sea mejor que las alternativas, sino porque las herramientas existen, son fáciles de usar y la presión para utilizarlas es enorme.
Esto refleja un problema más profundo en la tecnología. Solo mira los recientes errores de IA de Apple. A pesar de todo el bombo, la IA no está entregando la magia que se prometió. Se está incorporando a productos no porque los usuarios lo necesiten, sino porque los accionistas quieren escuchar “IA” en las llamadas de ganancias.
Y en este momento, no está revolucionando nada. De hecho, en la mayoría de las aplicaciones, está comenzando a parecer un truco muy caro.
“Me recuerda a los primeros días de la descarga de torrents o el streaming de música – un poco como el Salvaje Oeste”, explica Goulcher. “Aunque las marcas le pusieron un logo, eso no lo hizo éticamente bueno. Solo intentaban aprovecharse de la legalidad y el dinero hasta que la legislación llegara demasiado tarde”.
Como con las criptomonedas o los NFTs, vemos innovación, exageración, sobreuso y luego fatiga. “Creo que podemos aplicar la misma gráfica de exageración tecnológica al contenido de IA”, dice Goulcher. “Siempre hay algo en mi interior que me dice: ‘esta burbuja va a estallar’. Y todavía creo que eso sucederá. Cuando los conjuntos de datos de IA comiencen a comerse a sí mismos, y el factor sorpresa se desgaste – ¿qué queda?”
Y él está planteando la pregunta que más de nosotros deberíamos hacer: “¿Cómo están realmente estas herramientas de mil millones de dólares mejorando nuestras vidas? Porque la novedad se está desvaneciendo, la ética (o la falta de ella) se está volviendo más clara, y el impacto sorpresa está comenzando a disminuir”.
No es que las redes sociales fueran perfectas antes de esto. La IA no inició la decadencia, las cosas ya estaban deslizándose. Pero esta última ola de contenido generativo lo ha empujado directamente hacia un caos extraño, derivativo y que quita la cabeza.
Y si la IA está inundando nuestros feeds con contenido inútil, también está haciendo algo más peligroso: armándolo. Es fácil reírse de bebés de celebridades generados por IA o sentir vergüenza por un anuncio de marca que salió del valle inquietante. Pero esa reacción pasa por alto la imagen más grande y aterradora.
Porque la IA puede alimentar la desinformación a gran escala. Por ejemplo, en toda Europa, grupos de extrema derecha están utilizando imágenes generadas por IA para provocar indignación, difundir teorías de conspiración y avivar divisiones. Y no son solo trolls marginales – son campañas coordinadas, diseñadas para manipular la opinión pública.
Ese es solo un ejemplo. Desinformación electoral. Pornografía deepfake. Imágenes de guerra falsas. Sí, es el tipo de contenido que siempre ha existido en línea. Solo que ahora, las reglas han cambiado. No necesitas habilidades. No necesitas un equipo. Ni siquiera necesitas un presupuesto. Solo una narrativa y la disposición a abandonar la realidad. Y en las redes sociales, el resto se encarga de sí mismo.
Esa es la verdadera historia de terror. No solo que estamos ahogándonos en basura, o que las marcas piensan que queremos anuncios generados por IA, sino que estamos deslizándonos hacia un mundo donde lo falso se mueve más rápido que lo verdadero. Y al algoritmo no le importa si es real, solo que está obteniendo tus clics, tus “me gusta”, tu atención.

