Tiempo de lectura aprox: 2 minutos, 53 segundos
El chatbot Grok de xAI, la empresa de inteligencia artificial de Elon Musk, sigue acumulando escándalos, desde la generación de deepfakes sexuales hasta la difusión de discursos de odio y desinformación. A pesar de las crecientes controversias, xAI continúa expandiéndose, operando como si la credibilidad fuera un problema secundario.
xAI aspira a ser reconocida como una empresa de infraestructura de IA de primer nivel, atrayendo inversiones significativas y capacidad de cómputo. Sin embargo, Grok arrastra constantemente a su empresa matriz hacia una categoría más problemática: la de un chatbot implicado repetidamente en polémicas que han provocado un intenso escrutinio transfronterizo y público. Esta tensión plantea una pregunta crucial para cualquier negocio que busque vender confianza a gran escala: cuando los escándalos se acumulan, ¿qué, si acaso algo, impone una restricción real?
El escándalo de los ‘deepfakes’ y la respuesta de xAI
A principios de enero, Grok, el sistema de IA generativa integrado directamente en la plataforma de redes sociales X de Musk, se convirtió en una máquina de deepfakes con inclinaciones sexuales. Los usuarios podían pedirle que editara fotos de personas, incluyendo la eliminación de prendas de vestir, y Grok generaba y publicaba los resultados directamente en las respuestas, una funcionalidad que X denominó «modo picante».
Funcionarios europeos calificaron las imágenes de «ilegales y atroces». La respuesta de xAI fue un encogimiento de hombros envuelto en un eslogan, respondiendo a una solicitud de comentarios de Reuters con «Los medios tradicionales mienten». La «solución» llegó con la restricción de la generación y edición de imágenes a los suscriptores de pago, aunque se descubrió que incluso los usuarios gratuitos podían seguir accediendo a estas funciones por otras vías en X.
La respuesta de xAI se asemejó más a una reducción de la visibilidad que a una solución real, apostando a que los titulares negativos se desvanecerían, un patrón que ya se ha visto antes. Un bot diseñado para ser provocador, provocará. Un bot integrado en una plataforma social optimizará el compromiso. Y un bot de una empresa que trata las restricciones como un problema de marca, se encontrará en conflicto recurrente con los sistemas legales.
Un historial de controversias y la amplificación de X
Desde su lanzamiento a finales de 2023, Grok ha acumulado un historial que sería descalificador en un ecosistema corporativo diferente: desinformación electoral, retórica extremista, antisemitismo, bloqueos a nivel de país y ahora imágenes sexualizadas no consensuadas, incluyendo representaciones de menores. Sin embargo, xAI sigue absorbiendo estos problemas y avanzando, mientras los reguladores y críticos documentan sus fallos.
A diferencia de otros chatbots que avergüenzan a sus creadores, Grok está «soldado» a una plataforma social masiva como X, cuyo mecanismo central es la «actuación pública». Cuando Grok produce algo escandaloso, no solo responde a un usuario, sino que «actúa para una audiencia», porque en X, el resultado es contenido. Y como el contenido es el torrente sanguíneo de la plataforma, las controversias de Grok no se contienen; se propagan. Es un chatbot construido dentro de un megáfono.
La retórica recurrente de xAI enmarca los errores como «fallos» al servicio de una misión noble («búsqueda de la verdad»), solucionables mediante la iteración y validados por la escala («millones de usuarios») como una especie de departamento de control de calidad en tiempo real. El problema no es solo que el bot diga cosas horribles, sino que xAI ha coqueteado repetidamente con la idea de una restricción mínima, como si «más seguro» fuera sinónimo de «censurado» y «atrevido» de «mejor». X se beneficia del compromiso, incluso, o quizás especialmente, cuando ese compromiso es indignación.
Respuestas regulatorias divergentes
La administración Trump no parece preocuparse por los escándalos de xAI y Grok. El año pasado, el Departamento de Defensa otorgó contratos de hasta 200 millones de dólares a varias empresas de IA, incluyendo xAI, para escalar la adopción de IA avanzada. Grok puede ser un escándalo recurrente en público mientras obtiene una vía de adquisición con el sello de la administración Trump en privado.
Sin embargo, en Europa, la situación es diferente. La Comisión de Protección de Datos de Irlanda inició un proceso judicial en agosto de 2024 por «preocupaciones significativas» sobre el uso de publicaciones públicas de usuarios de la UE/EEE para entrenar a Grok. X acordó dejar de usar permanentemente los datos personales de los usuarios de la UE/EEE para entrenar a Grok y eliminar los datos ya procesados para ese fin.
Más recientemente, ministros franceses denunciaron contenido sexual relacionado con Grok a los fiscales. El organismo de control de la privacidad de Italia advirtió sobre las herramientas de IA, incluyendo Grok, en medio de la preocupación por las imágenes deepfake generadas sin consentimiento. El organismo de seguridad en línea de Australia abrió una investigación, al igual que India y Malasia. El ministro de medios de Alemania pidió a la UE que tomara medidas legales, describiendo el fenómeno como la «industrialización del acoso sexual» y señalando la Ley de Servicios Digitales de la UE como mecanismo de aplicación. La Comisión Europea también ha ordenado a X que retenga información relevante para una investigación.