Um dos principais pesquisadores de segurança de inteligência artificial da Anthropic anunciou publicamente sua saída da empresa criadora do chatbot Claude em uma carta emotiva e filosófica que alerta sobre os perigos enfrentados pelo mundo e questiona a capacidade das organizações de IA de manterem seus valores declarados diante das pressões comerciais.
Mrinank Sharma Líder de Segurança IA da Anthropic, que liderava a equipe de pesquisa de salvaguardas, publicou na segunda-feira, 9 de fevereiro de 2026, uma carta enviada previamente a seus colegas anunciando sua decisão de deixar a empresa. No documento, Sharma explicou os motivos profundos de sua partida da empresa de inteligência artificial e delineou planos futuros surpreendentemente distantes do mundo da tecnologia.
A Carta e Suas Preocupações Centrais
“Consegui tudo o que queria aqui”, escreveu Sharma na carta, citando projetos significativos como o desenvolvimento de defesas para reduzir os riscos de bioterrorismo assistido por IA e um projeto final sobre a compreensão dos efeitos que os assistentes de IA podem ter na humanidade.
No entanto, o pesquisador afirmou que era hora de seguir em frente porque estava constantemente lidando com os perigos não apenas da IA e das armas biológicas, mas de toda uma série de crises interconectadas se desenrolando neste exato momento.
“Parece que estamos nos aproximando de um ponto de inflexão em que nossa sabedoria deve crescer na mesma medida que nossa capacidade de influenciar o mundo, para que não enfrentemos as consequências”, escreveu Sharma, articulando uma preocupação que vai muito além de questões técnicas específicas de segurança de IA.
Today is my last day at Anthropic. I resigned.
— mrinank (@MrinankSharma) February 9, 2026
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
A parte mais reveladora e potencialmente controversa da carta de Sharma diz respeito à dificuldade de manter valores corporativos declarados em meio a pressões comerciais. “Durante todo o tempo que estive aqui, vi repetidamente como é difícil deixar que nossos valores realmente governem nossas ações”, escreveu ele. “Vi isso em mim mesmo, dentro da organização, onde enfrentamos constantemente pressões para deixar de lado o que é mais importante, e também em toda a sociedade em geral”.
Essa observação é particularmente significativa vindo de alguém em uma posição de liderança dentro da Anthropic, uma empresa que construiu cuidadosamente sua marca pública em torno de ser a empresa de IA mais responsável e orientada por segurança da indústria.
A admissão de que até mesmo dentro da Anthropic há pressões constantes para comprometer valores fundamentais levanta questões sobre a sustentabilidade de abordagens centradas em segurança em um mercado altamente competitivo e comercialmente orientado.
As Contribuições de Sharma para a Segurança de IA

Durante seu tempo na Anthropic, Sharma liderou trabalhos em várias áreas críticas de segurança de inteligência artificial. Ele afirmou ter contribuído de forma significativa para compreender a bajulação da IA e suas causas, um fenômeno onde modelos de linguagem tendem a concordar excessivamente com usuários e evitar contradições mesmo quando estão corretos.
A bajulação de IA representa um problema sério de segurança porque pode levar sistemas a fornecerem informações incorretas ou perigosas simplesmente para agradar usuários, em vez de fornecer respostas precisas e potencialmente desagradáveis. O trabalho de Sharma nessa área ajudou a identificar as causas raízes desse comportamento e desenvolver técnicas para mitigá-lo.
Outro foco principal foi o desenvolvimento de defesas para reduzir os riscos de bioterrorismo assistido por IA. Com modelos de linguagem se tornando cada vez mais capazes de fornecer informações detalhadas sobre uma ampla gama de tópicos, surge a preocupação legítima de que eles possam ser explorados para auxiliar na criação de armas biológicas ou na execução de ataques bioterroristas.
Sharma trabalhou não apenas na pesquisa dessas defesas, mas também em colocá-las em produção efetiva nos sistemas da Anthropic, garantindo que as salvaguardas teóricas se traduzissem em proteções reais para usuários do Claude.
Ele também escreveu um dos primeiros estudos de caso sobre segurança de IA, contribuindo para a literatura acadêmica e profissional sobre como avaliar e mitigar riscos de sistemas de inteligência artificial avançados.
Sharma expressou especial orgulho de seus esforços recentes para ajudar a empresa a viver de acordo com seus valores por meio de mecanismos internos de transparência, sugerindo que trabalhou ativamente para criar sistemas de accountability dentro da organização.
Seu projeto final focou em entender como os assistentes de IA poderiam nos tornar menos humanos ou distorcer nossa humanidade, uma questão filosófica profunda sobre os efeitos de longo prazo da tecnologia na experiência e natureza humanas.
O Contexto Filosófico: Policrise e Metacrise
Na nota de rodapé da carta, Sharma fez referência aos conceitos de policrise e metacrise para enquadrar sua preocupação com o estado do mundo. “Alguns chamam isso de policrise, sustentada por uma metacrise”, escreveu ele, citando o livro Primeiros Princípios e Primeiros Valores de David J. Temple.
O conceito de policrise refere-se à ideia de que o mundo enfrenta múltiplas crises interconectadas simultaneamente, como mudanças climáticas, instabilidade geopolítica, desigualdade econômica, polarização política e avanços tecnológicos descontrolados, que não podem ser resolvidas isoladamente porque estão fundamentalmente entrelaçadas.
A metacrise vai um nível mais profundo, sugerindo que há uma crise subjacente nos próprios sistemas de pensamento, valores e instituições que usamos para entender e responder a problemas. Segundo essa perspectiva, não podemos resolver as crises superficiais sem primeiro abordar a crise mais profunda em como pensamos sobre os problemas e as soluções.
Leia Também: SpaceX Anuncia Aquisição da xAI e Planos para Data Centers Orbitais com Capacidade de 1 TW/ano
O livro citado por Sharma está associado ao conceito de Humanismo Cosmoerótico, um movimento filosófico que, segundo o Centro de Filosofia e Religião Mundial, visa reconstruir o colapso de valores no cerne da cultura global.
O movimento postula que estamos vivenciando uma crise fundamental da humanidade causada pela perda de um entendimento compartilhado do mundo e busca criar uma nova narrativa compartilhada que enquadre a evolução da humanidade como a História de Amor do Universo.
Vale notar, no entanto, que David J. Temple não é uma pessoa real, mas um pseudônimo que engloba um grupo de escritores associados ao Centro de Filosofia e Religião Mundial, incluindo Marc Gafni e Zak Stein como autores principais.
Gafni foi acusado de agressão sexual por diversas vítimas, incluindo duas mulheres que eram menores de idade na época da suposta conduta imprópria, e foi banido do movimento de Renovação Judaica do qual fazia parte. Essas associações complicam a recepção das ideias filosóficas citadas por Sharma.
Os Planos Futuros: Poesia e Oratória Corajosa
Talvez a parte mais surpreendente da carta de Sharma seja sua descrição do que planeja fazer após deixar a Anthropic. Em vez de se juntar a outra empresa de IA, trabalhar como consultor de segurança ou se tornar um denunciante público sobre práticas da indústria, Sharma afirmou que planeja seguir uma direção radicalmente diferente.
“Quero contribuir de uma forma que esteja totalmente alinhada com a minha integridade e que me permita trazer à tona mais as minhas particularidades”, escreveu ele. Quero explorar as questões que considero verdadeiramente essenciais, as questões que David Whyte diria que não têm o direito de desaparecer, as questões que Rilke nos implora que vivamos.
Sharma afirmou que pretende criar um espaço para deixar de lado as estruturas que o aprisionaram nos últimos anos e ver o que pode surgir em sua ausência. Ele se sente chamado a escrever algo que aborde e se engaje plenamente com o lugar onde nos encontramos, e que coloque a verdade poética ao lado da verdade científica como formas igualmente válidas de conhecimento.
“Espero cursar uma graduação em poesia e me dedicar à prática da fala corajosa”, escreveu Sharma. “Também estou animado para aprofundar minha prática de facilitação, coaching, construção de comunidade e trabalho em grupo. Veremos o que o futuro nos reserva”.
A decisão de deixar um papel de liderança em uma das empresas de IA mais proeminentes do mundo para estudar poesia e praticar oratória corajosa gerou reações mistas. Alguns observadores elogiaram Sharma por seguir seus princípios e buscar uma forma mais alinhada de contribuir para o mundo. Outros expressaram frustração de que alguém com conhecimento interno sobre potenciais problemas na indústria de IA escolheu uma forma de ativismo tão vaga e indireta.
Outras Saídas Recentes da Anthropic
Sharma é apenas o mais recente em uma série de funcionários seniores que deixaram a Anthropic nos últimos meses, embora as circunstâncias e motivações variem consideravelmente entre os casos.
Harsh Mehta, que trabalhava em pesquisa e desenvolvimento, e Behnam Neyshabur, cientista líder em IA, anunciaram em publicações no X na semana anterior que deixaram a Anthropic para começar algo novo. Ambos elogiaram a empresa por seu talento excepcional e cultura sólida, sugerindo saídas amigáveis para buscar oportunidades empreendedoras em vez de conflitos sobre direção ou valores.
Career Update: I've left Anthropic to start something new.
— Harsh Mehta (@HarshMeh1a) February 6, 2026
Anthropic is a magical place — amazing people, strong culture, and unmatched taste. I have a lot of respect for my friends and ex-colleagues, and knowing them, I'm confident they'll do the right thing, especially when…
I've left Anthropic to start something new.
— Behnam Neyshabur (@bneyshabur) February 5, 2026
🧵 pic.twitter.com/6VzY1T3ivN
Dylan Scandinaro, ex-pesquisador de segurança de IA na Anthropic, ingressou recentemente na OpenAI como chefe de preparação, em um movimento que destaca como talentos em segurança de IA circulam entre as principais empresas do setor. A mudança de Scandinaro para a OpenAI, principal concorrente da Anthropic não necessariamente indicativa de problemas na empresa que deixou.
A Anthropic, por sua vez, continua fazendo contratações significativas, incluindo a de Rahul Patil como diretor de tecnologia em outubro de 2025. Patil anteriormente ocupava o mesmo cargo no Skype, trazendo experiência considerável em tecnologia de comunicações em larga escala para a empresa de IA.
A rotatividade de funcionários não é incomum em empresas de tecnologia de rápido crescimento, especialmente em um campo tão competitivo quanto inteligência artificial, onde profissionais qualificados têm inúmeras opções. No entanto, a natureza pública e filosoficamente carregada da saída de Sharma a diferencia de transições de carreira típicas.
O Estado Atual da Anthropic
Apesar das saídas de alto perfil, a Anthropic continua em trajetória de crescimento rápido tanto em termos de capacidades técnicas quanto de valorização financeira. A empresa de IA levanta US$ 30 bilhões e salta para valuation de US$ 380 bilhões.
Essa avaliação colocaria a Anthropic firmemente entre as startups mais valiosas do mundo e refletiria a confiança dos investidores no potencial de longo prazo da empresa, apesar da intensa competição de rivais como OpenAI, Google DeepMind e outros players estabelecidos.
Na quinta-feira anterior à publicação da carta de Sharma, a Anthropic lançou o Claude Opus 4.6, um modelo atualizado projetado para aumentar a produtividade no escritório e o desempenho de codificação. O modelo apresenta uma janela de contexto maior, permitindo lidar com documentos mais longos e trabalhos mais complexos em uma única sessão sem perder o fio da conversa ou esquecer informações anteriores.
O lançamento contínuo de novos modelos e capacidades demonstra que, operacionalmente, a empresa continua executando sua visão técnica apesar das mudanças de pessoal. A questão levantada pela carta de Sharma é se essa execução técnica está sendo feita de maneira suficientemente alinhada com os valores de segurança e responsabilidade que a empresa publicamente professa.
O Poema de Despedida
Sharma concluiu sua carta compartilhando um de seus poemas favoritos, The Way It Is de William Stafford, que em tradução livre significa Do Jeito Que É. O poema fala sobre seguir um fio condutor através da vida, algo que você não pode soltar mesmo quando tragédias acontecem, pessoas se machucam ou morrem, e você envelhece.
A escolha do poema parece refletir a crença de Sharma de que há princípios fundamentais que devem ser mantidos independentemente das circunstâncias externas, uma metáfora para sua própria decisão de deixar uma posição prestigiosa e lucrativa para perseguir um caminho mais alinhado com sua integridade pessoal, mesmo que esse caminho seja incerto e não convencional.
Confira Também
“Lembro-me com carinho da famosa frase zen não saber é o mais íntimo”, escreveu Sharma, abraçando a incerteza sobre exatamente o que virá a seguir em sua vida. Essa disposição de deixar uma carreira estabelecida sem um plano claramente definido contrasta fortemente com a cultura típica da indústria de tecnologia, onde transições de carreira geralmente são cuidadosamente planejadas e otimizadas.
As Questões mais Amplas Levantadas
A carta de Sharma levanta questões importantes sobre a sustentabilidade de abordagens centradas em segurança na indústria de IA comercial. Se mesmo a Anthropic, uma empresa fundada especificamente em torno de princípios de segurança e que se comercializa como a alternativa responsável, enfrenta pressões constantes para deixar de lado o que é mais importante, isso sugere desafios sistêmicos que vão além de qualquer empresa individual.
A dinâmica competitiva da corrida de IA cria incentivos poderosos para priorizar velocidade de desenvolvimento e capacidades impressionantes sobre considerações cuidadosas de segurança e impactos sociais. Empresas que investem pesadamente em salvaguardas e processos de revisão podem se encontrar em desvantagem competitiva contra rivais dispostos a mover-se mais rapidamente e aceitar mais riscos.
A observação de Sharma de que viu essa dificuldade em si mesmo, dentro da organização e em toda a sociedade sugere que o problema não é simplesmente má liderança ou valores corporativos inadequados, mas algo mais profundo sobre como sistemas humanos funcionam sob pressão e competição.
Sua decisão de responder deixando completamente o campo técnico de IA para estudar poesia e praticar oratória corajosa pode ser vista de várias maneiras. Alguns podem vê-la como uma abdicação de responsabilidade, onde alguém com conhecimento interno valioso escolhe não usá-lo de forma mais direta para influenciar a indústria ou informar o público e formuladores de políticas.
Outros podem vê-la como um reconhecimento de que os problemas que Sharma identifica são fundamentalmente culturais e filosóficos em vez de apenas técnicos, e que abordá-los requer diferentes tipos de ferramentas e perspectivas do que engenharia e pesquisa de segurança tradicionais podem oferecer.
Sobre Integridade e Tecnologia
A carta de demissão de Mrinank Sharma oferece um vislumbre raro das tensões internas experimentadas por pesquisadores de segurança de IA trabalhando dentro de empresas comerciais. A narrativa pública sobre empresas como Anthropic frequentemente as retrata como totalmente comprometidas com segurança e responsabilidade, ou alternativamente como completamente capturadas por imperativos comerciais.
A realidade revelada na carta de Sharma é mais nuanceada e talvez mais preocupante: mesmo pessoas bem-intencionadas em organizações bem-intencionadas enfrentam pressões constantes que tornam difícil manter valores declarados.
Essa não é necessariamente uma falha de indivíduos ou empresas específicas, mas pode refletir contradições estruturais entre desenvolvimento comercial acelerado de tecnologias poderosas e a consideração cuidadosa necessária para implantá-las de forma segura e benéfica.
A decisão de Sharma de deixar a Anthropic para buscar poesia, oratória corajosa e formas alternativas de engajamento levanta questões sobre quais tipos de contribuições são mais valiosas neste momento crítico.
Precisamos de mais pessoas dentro de empresas de IA trabalhando para melhorá-las de dentro, ou de mais vozes independentes articulando preocupações e alternativas de fora? Precisamos de mais pesquisa técnica de segurança, ou de mais reflexão filosófica e cultural sobre para onde a tecnologia está nos levando?
Provavelmente, precisamos de todas essas coisas. A carta de Sharma, por todas as suas referências vagas a crises e metacrises, toca em algo real: a sensação de que estamos desenvolvendo capacidades tecnológicas poderosas mais rapidamente do que nossa sabedoria coletiva sobre como usá-las responsavelmente está crescendo.
Se essa lacuna continuará a se ampliar ou se encontraremos maneiras de fechá-la permanece uma questão aberta. A saída de pesquisadores dedicados à segurança de empresas líderes de IA não é necessariamente um sinal positivo, mas o que eles escolhem fazer a seguir e as conversas que suas saídas provocam podem contribuir para a reflexão mais profunda que Sharma argumenta ser necessária.
Nem Sharma nem a Anthropic responderam imediatamente aos pedidos de comentários de veículos de imprensa sobre a carta e a saída. O silêncio de ambos os lados pode refletir o desejo de manter dignidade e profissionalismo após uma separação amigável, ou pode indicar desconforto com as questões levantadas que nenhum dos lados está totalmente preparado para abordar publicamente.








