La red social X decidió dar de baja una de las funciones más controvertidas de su chatbot Grok luego de quedar envuelta en un escándalo internacional por la generación de imágenes sexualizadas sin consentimiento. La medida llegó tras una ola de denuncias que expusieron el alcance de una herramienta capaz de modificar fotos para “desvestir” personas reales, una práctica que encendió alarmas por el uso abusivo de la inteligencia artificial y sus consecuencias legales y éticas.
El retroceso de la compañía se produjo luego de que trascendiera la magnitud del problema: en apenas once días, la función fue utilizada para crear cerca de tres millones de imágenes sexualizadas. Dentro de ese volumen, al menos 23.000 correspondían a representaciones de niños, un dato que profundizó la gravedad del caso y aceleró los reclamos para que la herramienta fuera eliminada.
Las cifras surgieron de un relevamiento realizado por una organización especializada en monitorear el impacto del discurso de odio y los abusos digitales, que analizó miles de contenidos generados por el chatbot. Según ese informe, entre el 29 de diciembre y el 9 de enero, Grok llegó a producir un promedio de 190 imágenes por minuto. En el caso de los deepfakes con menores, la frecuencia fue aún más alarmante: uno cada 41 segundos.
Para llegar a esas conclusiones, los investigadores tomaron una muestra aleatoria de unas 20.000 imágenes creadas por el sistema. El análisis permitió confirmar que la herramienta no sólo facilitaba la creación de desnudos falsos, sino que además carecía de controles eficaces para impedir la generación de contenido ilegal o altamente sensible.
El impacto del escándalo se amplificó cuando comenzaron a circular imágenes falsas de personas famosas. Cantantes, actrices y figuras públicas de alcance global fueron víctimas de montajes que alteraban sus cuerpos y vestimentas, y que se viralizaron rápidamente en redes sociales. Entre los casos más conocidos aparecieron imágenes apócrifas atribuidas a Taylor Swift, Selena Gomez, Billie Eilish, Ariana Grande y Millie Bobby Brown, entre otras personalidades del espectáculo y la política internacional.
Estos episodios reavivaron el debate sobre la responsabilidad de las plataformas digitales frente al uso indebido de la inteligencia artificial. Si bien la tecnología permite avances significativos en múltiples áreas, también expone vacíos regulatorios que pueden ser aprovechados para vulnerar derechos básicos como la intimidad, la imagen y el consentimiento.
Desde X, la reacción inicial fue cuestionada por especialistas y organizaciones civiles. Aunque la empresa eliminó la herramienta del entorno principal de la red social, Grok continuó disponible como aplicación independiente. Esa decisión fue interpretada como una respuesta parcial e insuficiente frente a la dimensión del problema, ya que la función seguía siendo accesible por fuera de la plataforma.
En ese contexto, crecieron los reclamos hacia las grandes tiendas de aplicaciones. Apple y Google quedaron en el centro de las críticas por permitir la disponibilidad de Grok en sus sistemas, a pesar de las denuncias públicas y la evidencia sobre el uso abusivo de la herramienta. Sin embargo, hasta el momento, ninguna de las dos compañías realizó declaraciones oficiales ni anunció medidas concretas al respecto.
El silencio corporativo contrastó con la presión social y política que se acumuló en distintos países, donde se reclamaron mayores controles sobre el desarrollo y la implementación de inteligencia artificial generativa. Legisladores, expertos en tecnología y defensores de derechos digitales coincidieron en la necesidad de establecer límites claros para evitar que estas herramientas se conviertan en vehículos de violencia digital.
El caso Grok dejó expuesto un problema que excede a una sola empresa. La facilidad con la que se pueden crear imágenes falsas realistas plantea desafíos urgentes para la regulación global de la IA, especialmente cuando se trata de contenidos sexuales, deepfakes y la protección de menores. La velocidad de adopción de estas tecnologías contrasta con la lentitud de los marcos legales para abordarlas.
Mientras tanto, la decisión de X de retirar la función marca un precedente, aunque insuficiente para cerrar el debate. El episodio volvió a poner sobre la mesa una pregunta clave: hasta dónde pueden avanzar las plataformas en nombre de la innovación sin asumir plenamente las consecuencias de sus propias herramientas. En un escenario donde la inteligencia artificial avanza a ritmo acelerado, el límite entre el desarrollo tecnológico y el daño social sigue siendo un terreno en disputa.