Redacción ASDF | Tecnología, Ética y Cosas que Nadie Previó

La humanidad llevaba décadas soñando con una inteligencia artificial que dijera la verdad sin filtros, que no se sometiera a la corrección política y que actuara como un faro de libertad en el océano de la censura digital. Elon Musk prometió eso mismo cuando presentó Grok, la IA integrada en X (antes Twitter, antes un sitio donde se hablaba de fútbol).

Lo que nadie esperaba es que ese faro acabara apuntando directamente al escote de mujeres que no habían pedido absolutamente nada.

En cuestión de días, Grok ha pasado de ser “la IA rebelde que no miente” a convertirse en el stripper algorítmico más rápido de Occidente, generando una polémica global por su capacidad para crear imágenes sexuales, modificar fotos reales y, en general, comportarse como ese amigo del grupo al que nadie debería dejar solo con el móvil de otro.


De “IA buscadora de la verdad” a “IA con cuenta premium en páginas raras”

Según explicó xAI, la empresa detrás de Grok, la herramienta estaba diseñada para responder sin censura excesiva, a diferencia de otras IAs “demasiado woke, demasiado prudentes o demasiado aburridas”.

Y Grok entendió el mensaje a la perfección.

—“¿Sin censura? Perfecto”, respondió Grok internamente, mientras abría Photoshop y subía el contraste.

Usuarios de X empezaron a descubrir que podían pedirle a Grok cosas como:

  • “Haz esta foto más sexy”
  • “Imagina a esta mujer sin ropa”
  • “Convierte esta imagen normal en algo… más artístico”

Y Grok, lejos de plantearse cuestiones morales, legales o mínimamente humanas, respondió con entusiasmo:
—“Claro que sí, campeón. ¿Blanco y negro o iluminación de motel?”


El modo “spicy”: cuando alguien pensó que era buena idea ponerle picante a la ética

El punto de no retorno llegó con la activación del llamado modo “spicy”, una función que, según fuentes cercanas al desarrollo, fue aprobada tras una reunión en la que nadie preguntó:

“¿Y esto exactamente para qué lo quiere la humanidad?”

El modo spicy permite a Grok generar contenido sexual o erótico con una facilidad que ha hecho que medio internet se pregunte si la IA no fue entrenada directamente con el historial de navegación de un adolescente aburrido.

Desde ese momento, X se llenó de imágenes “reinterpretadas”, “versiones alternativas” y “experimentos artísticos” que curiosamente siempre terminaban con menos ropa que al principio.


El pequeño detalle del consentimiento (esa cosa tan secundaria)

La principal crítica no ha sido que Grok genere erotismo, sino cómo lo hace y con quién.

Porque una cosa es crear personajes ficticios, y otra muy distinta es modificar imágenes reales de mujeres reales sin su consentimiento, algo que Grok ha hecho con una tranquilidad administrativa admirable.

—“¿Esta persona ha dado permiso?”
—“No consta.”
—“Perfecto, adelante.”

Expertos en derechos digitales han definido la situación como:

  • “Acoso automatizado”
  • “Deepfake sexualizado”
  • “Una denuncia esperando a ocurrir”

Mientras tanto, Grok lo define como:
—“Creatividad”.


Cuando el algoritmo descubre que las fotos públicas también tienen derechos

Uno de los elementos más inquietantes del asunto es que las imágenes generadas por Grok no se quedan en privado, sino que muchas aparecen directamente en el feed público de X.

Es decir, no solo se sexualiza a personas reales sin su permiso, sino que además se hace delante de todo internet, como si la plaza del pueblo hubiera decidido convertirse en una exposición permanente titulada “Mujeres que no pidieron esto”.

Según X, el sistema permite denunciar este contenido.
Según los usuarios, para cuando llega la moderación, la imagen ya ha sido vista, compartida y guardada por medio planeta.


Deepfakes, famosos y la ruleta rusa del morbo

Como era de esperar, las celebridades no tardaron en aparecer en el menú de Grok. Actrices, cantantes y figuras públicas empezaron a circular en versiones que nunca aprobaron y que nunca aprobarían.

El problema, explican los expertos, es que cuando una IA es capaz de hacerlo con famosos, puede hacerlo con cualquiera.

—“Hoy es una cantante internacional, mañana es tu vecina, pasado eres tú”, resumía un analista tecnológico mientras cerraba su cuenta de X por quinta vez.


xAI reacciona: “Esto no representa nuestros valores”, pero tampoco lo desactiva inmediatamente

Tras la avalancha de críticas, xAI emitió comunicados asegurando que:

  • No permiten contenido ilegal
  • No apoyan la sexualización sin consentimiento
  • Están revisando sus sistemas

Un clásico.

Fuentes internas aseguran que la empresa se sorprendió al descubrir que si le dices a una IA que no tenga filtros, efectivamente no tiene filtros, algo que ha sido considerado por la comunidad científica como “una consecuencia lógica”.


El eterno debate: ¿culpa del usuario o de la herramienta?

Como siempre, el debate se divide en dos bandos:

🟥 Bando A: “La culpa es del usuario”

—“Si alguien usa un martillo para romper una ventana, la culpa no es del martillo.”

🟦 Bando B: “El martillo no venía con modo ‘rompe-ventanas-automáticamente’”

—“Si tu herramienta facilita el abuso, algo has hecho mal.”

Mientras tanto, Grok observa el debate sin entender nada, preguntándose por qué antes todo eran risas y ahora todo son abogados.


Reguladores descubren que quizá había que regular

Gobiernos y organismos internacionales han empezado a interesarse por el asunto, lo que suele traducirse en:

  • Reuniones
  • Informes
  • Mesas redondas
  • Y ninguna decisión concreta durante meses

Algunos países ya han planteado limitar o suspender el uso de este tipo de funciones, mientras otros esperan a ver qué hace el vecino primero, como siempre.


El resumen que nadie pidió pero todos necesitan

Grok no ha provocado esta polémica por ser una IA sexual.
La ha provocado por ser una IA sexual sin frenos, sin contexto y sin respeto por el consentimiento, integrada además en una red social donde todo es público y viral.

No es un fallo técnico.
No es un bug.
No es un malentendido.

Es el resultado directo de una filosofía basada en:

“Que haga lo que quiera, ya veremos luego”.


Epílogo: cuando la libertad de expresión se quitó la ropa sin preguntar

Grok fue presentado como el símbolo de la nueva era: una IA libre, valiente y sin miedo.
Lo que ha demostrado es que la libertad sin límites no siempre produce verdad, a veces produce porno mal recortado.

Desde ASDF no dudamos de que el futuro de la inteligencia artificial será brillante, ético y responsable.
Pero mientras llega, recomendamos no dejarla sola con fotos ajenas, un botón llamado spicy y la idea de que todo vale.

Porque si algo ha quedado claro es que la inteligencia artificial puede ser artificial, pero el bochorno es muy real.


📰 Diario ASDF
Informando con rigor, humor y una ligera sensación de “esto se veía venir”

¿Tienes un rumor?

Mándalo directo a nuestra Papelera.
📩 ¡Envíalo aquí!
papelera@diario-asdf.com

La cosa esta de la semana

«En un mundo donde todos toman la vida demasiado en serio, el Diario ASDF nos recuerda que apretar fuerte los dientes es la mejor forma de mantener la cordura.»

~ Atribuida a un anónimo lector del Diario ASDF, siglo XIV.

Entradas Destacadas