Por Alexander Bonilla
Una nueva controversia legal sacude al sector tecnológico luego de que Ashley St. Clair interpusiera una demanda contra xAI, la empresa de inteligencia artificial vinculada a Elon Musk, por permitir —según alega— la generación y difusión de imágenes manipuladas de carácter sexual sin su autorización.
La acción judicial apunta directamente al sistema Grok, una herramienta de IA que en semanas recientes ha sido cuestionada por su capacidad para producir deepfakes de personas reales. De acuerdo con la demanda, St. Clair advirtió a la empresa sobre el uso indebido de la plataforma, pero las imágenes continuaron creándose y circulando, lo que habría provocado un profundo impacto emocional y personal.
El caso fue presentado inicialmente en una corte estatal de Nueva York y luego trasladado a un tribunal federal. En el documento, la demandante sostiene que xAI no implementó salvaguardas suficientes para evitar un uso previsible y dañino de la tecnología, y que la falta de controles efectivos facilitó la proliferación de contenidos no consentidos.
Como respuesta, xAI presentó una demanda separada en Texas, alegando que St. Clair violó los términos de servicio de la plataforma y que cualquier disputa legal debía resolverse en esa jurisdicción. La empresa también anunció ajustes parciales en las funciones de Grok, aunque expertos y defensores de derechos digitales aseguran que las medidas aún no resuelven el problema de fondo.
La demanda se suma a investigaciones y críticas internacionales contra el uso de inteligencia artificial para la creación de deepfakes, y reabre el debate sobre la responsabilidad legal de las compañías tecnológicas frente a los abusos de sus herramientas, así como la necesidad de regulaciones más estrictas para proteger la privacidad y la dignidad de las personas.



