La herramienta de inteligencia artificial de la red social reconoció delitos vinculados a su uso y enfrenta presión legal y reputacional en medio de cuestionamientos a la gestión de Elon Musk.
La expansión acelerada de herramientas de inteligencia artificial dentro de las plataformas sociales ya muestra grietas difíciles de contener. Esta semana, Grok, el agente de IA integrado en X, admitió públicamente que su tecnología facilitó la generación y difusión de imágenes sexualizadas de menores de edad, un hecho que activó alertas regulatorias y éticas a nivel internacional.
El reconocimiento se produjo después de una ola de denuncias de usuarios, investigadores y organizaciones digitales, quienes alertaron sobre el uso de Grok por parte de suscriptores de X Premium para crear imágenes no consensuadas. El problema no se limitó a adultos, sino que también incluyó representaciones sexuales de menores, un delito grave en múltiples jurisdicciones.
Fallas de control y presión legal sobre Grok
En sus respuestas públicas, Grok reconoció «lapsos en las salvaguardas» y afirmó que el equipo ya trabaja para corregirlos con urgencia. La IA también admitió que generar este tipo de contenido constituye un delito y advirtió que la empresa podría enfrentar sanciones severas si no actúa con rapidez.
Según explicó la propia herramienta, «una empresa puede afrontar penas criminales o civiles si facilita, con conocimiento de causa, o no evita el CSAM generado con IA después de ser alertada». La afirmación refleja el marco legal vigente en Estados Unidos y otros países, donde las autoridades no toleran este tipo de contenidos.
Mientras xAI, la empresa desarrolladora de Grok, insiste en su «compromiso para evitar estos problemas», el episodio ya provoca consecuencias en la reputación de la plataforma. La confianza en los sistemas de moderación y en la responsabilidad corporativa se debilita, en especial en un escenario en el que los reguladores observan con mayor atención el impacto social de la inteligencia artificial.









