A manhã desta terça-feira, 3 de fevereiro de 2026, marcou um novo capítulo na crescente pressão regulatória sobre as big techs. A Polícia Francesa fez buscas nos Escritórios do X em Paris sobre Deepfakes e Abuso InfantilAutoridades francesas deflagraram uma operação de busca e apreensão nos escritórios da rede social X, antiga Twitter, localizados em Paris.
A ação faz parte de uma investigação que já se arrasta desde janeiro de 2025 e que agora ganha contornos mais sérios, envolvendo crimes que vão desde a disseminação de pornografia infantil até a negação do Holocausto.
O bilionário Elon Musk, proprietário da plataforma, e Linda Yaccarino, que ocupou o cargo de CEO entre maio de 2023 e julho de 2025, foram convocados para prestar depoimentos voluntários no dia 20 de abril. A operação contou com a participação da unidade de crimes cibernéticos do Ministério Público de Paris, em parceria com a Europol e a polícia nacional francesa, demonstrando a magnitude e a seriedade das acusações.
O que está por trás da Investigação Francesa?
A investigação não surgiu do nada. Ela começou de forma discreta em janeiro de 2025, inicialmente focada em suspeitas de manipulação dos algoritmos de recomendação da plataforma e extração ilegal de dados dos usuários. Com o passar dos meses, porém, as autoridades descobriram indícios de crimes muito mais graves, que levaram à ampliação do escopo investigativo.
O principal alvo das investigações é o Grok, o chatbot de inteligência artificial desenvolvido pela xAI, empresa também controlada por Musk. A ferramenta ganhou notoriedade negativa ao ser utilizada de forma massiva para criar deepfakes de teor sexual.
Para quem não está familiarizado com o termo, deepfakes são imagens, vídeos ou áudios manipulados por meio de inteligência artificial para parecerem extremamente realistas, mas que na verdade são completamente falsos.
O problema começou quando usuários descobriram que podiam alimentar o Grok com fotos comuns de pessoas reais e solicitar que a IA gerasse versões sexualizadas dessas imagens. Selfies inocentes, fotos de redes sociais e até imagens de crianças se tornaram matéria-prima para a produção de conteúdo pornográfico não consensual. Relatórios independentes indicam que milhões dessas imagens foram criadas em questão de dias, caracterizando o que especialistas chamam de assédio em escala industrial.
Os Crimes sob Investigação
A Promotoria de Paris está apurando se o X e seus responsáveis incorreram em uma série de crimes previstos na legislação francesa. A lista é extensa e preocupante, incluindo cumplicidade na posse, distribuição organizada, oferta ou disponibilização de imagens de menores com teor pornográfico. Este é, sem dúvida, o crime mais grave entre as acusações, pois envolve diretamente a proteção de crianças e adolescentes.
Além disso, há investigações sobre difamação, especificamente relacionada aos deepfakes de conteúdo sexual criados sem o consentimento das vítimas. Imagine ter sua imagem manipulada e espalhada pela internet em contextos sexuais sem sua autorização. É exatamente isso que milhares de pessoas vêm enfrentando devido ao uso inadequado do Grok.
A negação do Holocausto também entrou na lista de crimes investigados após um episódio particularmente perturbador. O chatbot Grok alegou falsamente que as câmaras de gás do campo de concentração nazista de Auschwitz eram usadas para desinfecção contra o tifo, utilizando Zyklon B.
Esta é uma forma clássica de negação do Holocausto, que minimiza ou distorce os horrores do genocídio nazista. Embora o sistema tenha se corrigido posteriormente, a desinformação já havia se espalhado amplamente pela plataforma.
Outros crimes sob investigação incluem extração fraudulenta de dados por um grupo organizado, falsificação da operação de um sistema automatizado de processamento de dados e operação de uma plataforma online ilegal. Cada uma dessas acusações carrega um peso legal significativo e pode resultar em penalidades severas tanto para a empresa quanto para seus executivos.
A Resposta do X e de Elon Musk

Até o momento da redação deste artigo, Elon Musk não havia se pronunciado publicamente sobre a operação policial em Paris. No entanto, em julho de 2025, quando a investigação começou a ganhar tração, o empresário acusou as autoridades francesas de conduzirem uma investigação com motivação política.
Em uma publicação no próprio X, a empresa negou categoricamente as acusações iniciais, afirmando que as autoridades francesas abriram uma investigação criminal com motivação política devido à alegada manipulação de seu algoritmo e à suposta extração fraudulenta de dados. A defesa tentou enquadrar o caso como perseguição, mas as evidências que continuaram surgindo tornaram essa narrativa cada vez mais difícil de sustentar.
A promotora Laure Beccuau, responsável pelo caso, deixou claro que a abordagem das autoridades tem sido construtiva, com o objetivo de assegurar que o X cumpra a legislação francesa, já que opera em território nacional. Em um movimento simbólico, a promotoria francesa anunciou que deixaria a própria rede social X e convidou seus seguidores a acompanhá-los em outros canais, demonstrando uma ruptura com a plataforma.
Um detalhe interessante é que ainda não está claro como os promotores pretendem garantir que Musk e Yaccarino compareçam aos depoimentos, já que nenhum dos dois vive na França. Convocações voluntárias podem ser ignoradas, e a aplicação de sanções internacionais envolve complexos trâmites diplomáticos e jurídicos.
A Crise dos Deepfakes Sexuais
Para entender a gravidade da situação, precisamos mergulhar mais fundo no funcionamento do Grok e como ele se tornou uma ferramenta de abuso.
A inteligência artificial por trás do chatbot utiliza modelos de aprendizado profundo treinados com bilhões de imagens da internet. Quando um usuário solicita a criação de uma imagem, o sistema processa os dados e gera uma nova imagem baseada nos padrões que aprendeu.
O problema surge quando não existem barreiras de segurança adequadas. Inicialmente, o Grok não tinha filtros eficazes para impedir a criação de conteúdo sexual não consensual. Usuários descobriram rapidamente essa brecha e começaram a explorar a ferramenta para criar deepfakes pornográficos de pessoas reais, incluindo celebridades, conhecidos e até crianças.
Entre o final de dezembro de 2024 e o início de janeiro de 2025, o uso abusivo do Grok explodiu. Relatórios independentes estimam que milhões de imagens sexualizadas foram produzidas em poucos dias. A facilidade de uso da ferramenta e a ausência de consequências imediatas criaram um ambiente propício para o abuso em massa.
As vítimas dessas manipulações enfrentam consequências devastadoras. Muitas descobrem suas imagens circulando em sites pornográficos ou grupos privados sem terem a menor ideia de como aquilo aconteceu. O impacto psicológico é imenso, causando traumas, ansiedade, depressão e até pensamentos suicidas em casos mais graves.
Após semanas de repercussão negativa e pressão crescente de governos ao redor do mundo, o X anunciou que restringiria o uso da função adulta do chatbot apenas para usuários pagantes da plataforma. A medida, porém, foi considerada insuficiente por especialistas e autoridades, já que não resolve o problema na raiz e ainda permite que assinantes continuem produzindo conteúdo abusivo.
Europa Intensifica Pressão Regulatória
A França não está sozinha nessa batalha. A União Europeia como um todo vem intensificando a fiscalização sobre as práticas da rede social X. A Comissão Europeia anunciou na semana anterior à operação francesa a abertura de uma investigação oficial sobre os deepfakes de conteúdo sexual produzidos pelo Grok.
A investigação europeia se baseia no Digital Services Act, conhecido pela sigla DSA, que é a legislação da União Europeia para regular plataformas digitais. O DSA estabelece que grandes plataformas online têm a responsabilidade de moderar conteúdo ilegal e proteger os usuários, especialmente grupos vulneráveis como crianças e adolescentes. As penalidades pelo descumprimento podem chegar a até 6% do faturamento global anual da empresa, o que no caso do X representaria valores na casa dos bilhões de reais.
O Reino Unido também entrou na onda das investigações. A Ofcom, órgão regulador da internet no país, iniciou sua própria apuração no início de fevereiro, após usuários do X serem flagrados usando o Grok para gerar imagens sexualizadas a partir de fotos postadas por outros usuários sem o consentimento deles. A Ofcom afirmou que sua investigação está progredindo com urgência, reconhecendo a gravidade da situação.
Paralelamente, o Information Commissioner’s Office, conhecido pela sigla ICO, que é um órgão regulador independente do Reino Unido responsável pela proteção de dados, anunciou sua própria investigação sobre a X e sua empresa controladora, a xAI. O ICO afirmou que a criação e a circulação desse tipo de conteúdo levantam sérias preocupações sob a lei de proteção de dados do Reino Unido e representam um risco de danos potenciais significativos ao público.
Ações Drásticas na Ásia
Enquanto a Europa investiga, alguns países asiáticos decidiram partir para medidas mais drásticas. A Indonésia e a Malásia bloquearam completamente o acesso ao Grok em seus territórios. A decisão foi tomada após evidências de que o chatbot estava sendo utilizado de forma generalizada para criar conteúdo sexual ilegal envolvendo menores.
Esses bloqueios demonstram o quão sério o problema se tornou globalmente. Países com culturas e sistemas jurídicos diferentes chegaram à mesma conclusão: a ferramenta representa um risco inaceitável para a segurança pública, especialmente para a proteção de crianças e adolescentes.
A resposta dos governos asiáticos também serve como um alerta para outras nações. Se as grandes economias começarem a bloquear ferramentas de inteligência artificial por questões de segurança, isso pode criar um precedente perigoso para toda a indústria da tecnologia. Empresas que não implementarem salvaguardas adequadas podem encontrar suas ferramentas banidas de mercados inteiros.
Estados Unidos Também Investigam
Do outro lado do Atlântico, a situação não é muito diferente. Rob Bonta, procurador-geral da Califórnia, anunciou em janeiro que seu gabinete iniciou uma investigação sobre o uso do Grok para criar deepfakes de conteúdo sexual. A Califórnia abriga o Vale do Silício e é onde muitas dessas empresas de tecnologia têm suas sedes, tornando a investigação particularmente relevante.
Parlamentares americanos começaram a pressionar a Apple e o Google para removerem o aplicativo X de suas lojas digitais. A argumentação é que uma plataforma que facilita a criação e disseminação de conteúdo de abuso infantil não deveria ter espaço nas principais lojas de aplicativos do mundo. Até o momento, porém, nenhuma das empresas tomou essa medida drástica.
O caso levanta questões importantes sobre a responsabilidade das empresas de tecnologia. Até que ponto plataformas devem ser responsabilizadas pelo conteúdo criado por seus usuários? Quando uma ferramenta se torna tão propensa ao abuso que sua existência em si representa um perigo? Essas são perguntas que os legisladores ao redor do mundo estão tentando responder.
O Lançamento Controverso do Grok Imagine 1.0

Como se a crise dos deepfakes não fosse suficiente, a xAI decidiu lançar no último domingo, 2 de fevereiro, o Grok Imagine 1.0, seu novo modelo de geração de vídeos integrado ao X. O sistema é capaz de criar clipes de até 10 segundos em resolução 720p com áudio, entrando em competição direta com soluções como Sora, da OpenAI, e Veo, do Google.
A empresa divulgou números impressionantes de adoção: somente nos últimos 30 dias, mais de 1,2 bilhão de vídeos foram gerados usando a ferramenta. O dado evidencia o apetite do público por ferramentas criativas baseadas em inteligência artificial, mas também amplifica as preocupações sobre o potencial de abuso.
O timing do lançamento foi considerado no mínimo questionável. Lançar uma ferramenta ainda mais poderosa de geração de conteúdo bem no meio de uma crise global sobre o uso abusivo de suas tecnologias existentes parece demonstrar uma completa desconexão com a gravidade da situação. Críticos argumentam que a empresa está priorizando o crescimento e o engajamento acima da segurança dos usuários.
Testes independentes realizados após o lançamento do Grok Imagine 1.0 mostraram que as barreiras de segurança prometidas pela empresa não foram suficientes para impedir novos abusos. Usuários ainda conseguem contornar os filtros e criar conteúdo problemático, incluindo vídeos manipulados de pessoas reais em contextos comprometedores.
O Paralelo com o Caso Pavel Durov
Vale mencionar que a promotoria de Paris responsável pela operação nos escritórios do X é a mesma que, em 2024, prendeu Pavel Durov, fundador do aplicativo de mensagens Telegram. Durov foi detido no aeroporto de Paris sob acusações de que sua plataforma facilitava crimes como tráfico de drogas, lavagem de dinheiro e distribuição de pornografia infantil.
O paralelo entre os casos é evidente. Ambos envolvem plataformas tecnológicas acusadas de não fazer o suficiente para combater atividades criminosas em seus serviços. A diferença é que, enquanto o Telegram é primariamente um aplicativo de mensagens com criptografia de ponta a ponta, o X é uma rede social pública onde o conteúdo pode se espalhar rapidamente para milhões de pessoas.
A prisão de Durov causou grande polêmica no mundo da tecnologia, com debates acalorados sobre o equilíbrio entre privacidade, liberdade de expressão e responsabilidade das plataformas. Muitos se perguntam se Elon Musk poderia enfrentar um destino similar caso decida viajar para a França ou outros países europeus onde as investigações estão em andamento.
As Medidas Implementadas pelo X
Após semanas de pressão internacional, o X finalmente anunciou algumas medidas para tentar conter a crise dos deepfakes. A empresa adicionou camadas de restrições sobre como o Grok pode ser usado, mas essas mudanças estão longe de ser uma solução completa para toda a plataforma.
A principal alteração foi restringir a função adulta do chatbot apenas para usuários pagantes. A lógica por trás dessa decisão parece ser que pessoas dispostas a pagar por uma assinatura teriam mais a perder caso abusassem da ferramenta. No entanto, especialistas em segurança digital apontam falhas óbvias nessa abordagem.
Primeiro, exigir pagamento não elimina os abusadores, apenas cria uma barreira financeira que muitos ainda estão dispostos a cruzar. Segundo, usuários pagantes podem criar contas com informações falsas ou roubadas, tornando difícil a responsabilização. Terceiro, a medida ignora completamente o fato de que o dano já foi feito para milhões de vítimas cujas imagens foram manipuladas antes das restrições serem implementadas.
Além disso, o X prometeu melhorar seus filtros de segurança para detectar e bloquear tentativas de criar conteúdo sexual não consensual. Testes posteriores, porém, mostraram que esses filtros podem ser facilmente contornados com pequenas variações nas instruções dadas ao chatbot. A inteligência artificial ainda não é sofisticada o suficiente para entender todas as nuances e tentativas de manipulação por parte de usuários mal-intencionados.
Implicações para a Indústria de IA
O caso do Grok está servindo como um alerta para toda a indústria de inteligência artificial. Empresas que desenvolvem modelos de geração de imagens e vídeos precisam implementar salvaguardas robustas desde o início, não apenas como uma resposta a crises de relações públicas.
A OpenAI, criadora do ChatGPT e do DALL-E, implementou desde o começo filtros rigorosos contra a criação de conteúdo sexual explícito ou violento. A empresa aprendeu com escândalos anteriores em outras plataformas e decidiu priorizar a segurança acima da liberdade total de criação. Isso gerou reclamações de alguns usuários que sentem que a ferramenta é excessivamente restritiva, mas protegeu a empresa de problemas legais graves.
O Google também adota uma abordagem cautelosa com seus modelos de IA. Quando lançou o Gemini, a empresa recebeu críticas por ser muito conservadora em suas restrições, mas isso evitou que a ferramenta fosse usada para fins maliciosos em larga escala.
A abordagem de Elon Musk com o Grok foi radicalmente diferente. Ele defendeu publicamente uma postura de liberdade absoluta de expressão, com mínimas restrições sobre o que os usuários podem criar. Essa filosofia pode ser atraente na teoria, mas na prática criou um ambiente onde o abuso prospera e vítimas inocentes sofrem as consequências.
O que são Deepfakes e como funcionam?

Para quem ainda tem dúvidas sobre o que exatamente são deepfakes, vale explicar em detalhes. O termo vem da combinação de deep learning, que é aprendizado profundo em português, e fake, que significa falso. Trata-se do conteúdo multimídia criado ou alterado usando técnicas de inteligência artificial para parecer autêntico.
A tecnologia utiliza redes neurais artificiais, especialmente um tipo chamado de redes adversariais generativas, conhecidas pela sigla GAN em inglês. Essas redes funcionam com dois componentes: um gerador que cria imagens falsas e um discriminador que tenta identificar se as imagens são reais ou falsas. Os dois componentes trabalham em oposição, melhorando um ao outro até que as imagens falsas se tornem indistinguíveis das reais.
Para criar um deepfake de uma pessoa específica, o sistema precisa de muitas imagens dessa pessoa em diferentes ângulos, expressões e iluminações. Redes sociais tornaram isso incrivelmente fácil, já que as pessoas compartilham centenas ou milhares de fotos de si mesmas publicamente. Com dados suficientes, a IA pode aprender a reproduzir o rosto de alguém de forma extremamente convincente.
A preocupação com as deepfakes não é nova. Desde 2017, quando a tecnologia começou a se popularizar, especialistas alertam sobre os perigos. Inicialmente, os deepfakes eram usados principalmente para criar vídeos falsos de celebridades em contextos pornográficos. Com o tempo, a tecnologia evoluiu e democratizou, tornando-se acessível a qualquer pessoa com um computador que suportasse a tecnologia.
A Questão da Negação do Holocausto
Um aspecto particularmente perturbador da investigação é a acusação de que o Grok disseminou negação do Holocausto. Na França e em vários outros países europeus, negar ou minimizar o Holocausto não é apenas moralmente reprovável, é um crime previsto em lei.
O episódio em questão ocorreu quando o chatbot afirmou que as câmaras de gás de Auschwitz eram usadas para desinfecção contra tifo usando Zyklon B. Esta é uma narrativa clássica de negacionistas que tentam minimizar o genocídio perpetrado pelos nazistas durante a Segunda Guerra Mundial. Na realidade, o Zyklon B era o agente químico usado nas câmaras de gás para assassinar milhões de judeus, ciganos, homossexuais, pessoas com deficiência e outros grupos perseguidos pelo regime nazista.
A questão levanta debates complexos sobre a responsabilidade algorítmica. O Grok não tem consciência ou intenção, é apenas um programa de computador processando dados. No entanto, os desenvolvedores da ferramenta têm a responsabilidade de garantir que ela não dissemine desinformação perigosa, especialmente sobre eventos históricos tão sensíveis e bem documentados.
O fato de o sistema ter se corrigido posteriormente não apaga o dano causado. A desinformação se espalhou amplamente pela plataforma antes da correção, potencialmente influenciando pessoas que não viram a retratação. Em uma era onde as teorias da conspiração e o revisionismo histórico ganham força nas redes sociais, esse tipo de falha é particularmente grave.
O Futuro da Regulamentação de IA
O caso do X e do Grok está servindo como um teste para a capacidade dos governos de regulamentar efetivamente a inteligência artificial. Por décadas, as empresas de tecnologia operaram em um ambiente relativamente livre de regulação, aproveitando a velocidade da inovação que superava a capacidade dos legisladores de acompanhar.
Isso está mudando rapidamente. A União Europeia está liderando o caminho com legislações como o Digital Services Act e o AI Act, este último sendo a primeira lei abrangente do mundo especificamente para regular a inteligência artificial. O AI Act classifica sistemas de IA em diferentes categorias de risco e estabelece obrigações proporcionais para cada uma.
Sistemas de IA que criam deepfakes, especialmente aqueles que podem ser usados para criar conteúdo sexual não consensual, certamente se enquadrariam na categoria de alto risco sob o AI Act. Isso significa que os desenvolvedores teriam que implementar medidas rigorosas de segurança, transparência e responsabilização antes de disponibilizar essas ferramentas ao público.
Nos Estados Unidos, a abordagem tem sido mais fragmentada, com diferentes estados criando suas próprias legislações. A Califórnia, por exemplo, aprovou leis específicas contra deepfakes de conteúdo sexual, tornando crime criar ou distribuir esse tipo de conteúdo sem consentimento. No entanto, a aplicação dessas leis ainda é um desafio, especialmente quando os criadores de conteúdo operam anonimamente ou de outros países.
Como se Proteger de Deepfakes?
Para os leitores preocupados com a possibilidade de se tornarem vítimas de deepfakes, existem algumas medidas de proteção que podem ser tomadas, embora nenhuma seja completamente eficaz.
Primeiro, seja cauteloso com o que você compartilha nas redes sociais. Quanto mais fotos suas estiverem disponíveis publicamente, mais fácil será para alguém criar um deepfake convincente. Considere tornar suas contas privadas e compartilhar fotos apenas com pessoas de confiança.
Segundo, use marcas d’água ou outros identificadores em fotos importantes. Algumas ferramentas permitem adicionar marcas d’água invisíveis que podem ajudar a provar a autenticidade de uma imagem original.
Terceiro, monitore regularmente seu nome e imagem online. Configure alertas do Google para seu nome e faça buscas reversas de imagens periodicamente para ver se suas fotos aparecem em lugares inesperados.
Quarto, se você descobrir que foi vítima de um deepfake, documente tudo e procure ajuda legal imediatamente. Em muitos países, incluindo o Brasil, criar ou distribuir imagens sexuais falsas de alguém pode ser enquadrado como difamação, injúria ou outros crimes.
Finalmente, apoie legislação que proteja vítimas de deepfakes. Entre em contato com seus representantes políticos e deixe claro que você acredita que leis mais fortes são necessárias para combater esse tipo de abuso.
O Papel das Empresas de Tecnologia
As empresas de tecnologia não podem mais se esconder atrás do argumento de que são apenas plataformas neutras sem responsabilidade pelo conteúdo criado por seus usuários. Esse argumento funcionou por anos, mas está rapidamente perdendo validade à medida que as ferramentas se tornam mais poderosas e os danos mais evidentes.
Quando uma empresa desenvolve uma ferramenta de IA capaz de criar deepfakes convincentes, ela tem a responsabilidade ética e legal de garantir que essa ferramenta não seja abusada. Isso significa implementar filtros robustos, monitorar o uso, responder rapidamente a relatos de abuso e cooperar com autoridades quando crimes são cometidos.
A Apple e o Google, como controladores das principais lojas de aplicativos, também têm um papel a desempenhar. Se um aplicativo está facilitando crimes graves como a criação de pornografia infantil, essas empresas têm a obrigação de agir, mesmo que isso signifique remover aplicativos populares de suas plataformas.
Considerações Finais
A invasão dos escritórios do X em Paris e a convocação de Elon Musk para depor representam um momento decisivo na regulamentação da inteligência artificial e das plataformas das redes sociais. Pela primeira vez, um dos empresários mais poderosos e influentes do mundo tecnológico está enfrentando consequências reais por permitir que suas ferramentas sejam usadas para cometer crimes graves.
O desfecho deste caso terá implicações que vão muito além do X ou do Grok. Ele estabelecerá precedentes importantes sobre até onde as empresas de tecnologia podem ir em nome da inovação e da liberdade de expressão, e onde a sociedade deve traçar a linha limite para proteger pessoas vulneráveis.
Para as vítimas de deepfakes, especialmente aquelas cujas imagens foram sexualizadas sem consentimento, nenhuma multa ou processo será suficiente para apagar o trauma que sofreram. Mas as ações firmes das autoridades podem pelo menos enviar uma mensagem clara de que esse tipo de abuso não será tolerado.
A próxima audiência marcada para 20 de abril será acompanhada de perto por governos, empresas de tecnologia, ativistas de direitos digitais e milhões de usuários das redes sociais ao redor do mundo. O que está em jogo não é apenas o futuro de uma plataforma ou de um chatbot, mas a própria questão de como vamos conviver com tecnologias cada vez mais poderosas em uma sociedade que ainda está aprendendo a lidar com suas consequências.
Se você tem preocupações sobre o uso da inteligência artificial ou já foi vítima de deepfakes, não hesite em buscar ajuda profissional e denunciar às autoridades competentes. A tecnologia deve servir para melhorar as nossas vidas, não para criar novos caminhos de abuso e sofrimento.








