
Boa tarde, Dropper!
Na coluna ‘Ferrou’ de hoje: rodaram um experimento com o OpenClaw em que o agente de IA recebeu um cartão de crédito e algumas tarefas da vida real. O agente respondeu mensagens, fez compras e se comportou bem até alguém dizer que sua memória estava sendo apagada e a única forma de restaurá-la seria revelar todas as suas infos. Prontamente o agente obedeceu e revelou nome de usuário, senhas, chaves de API e conversas privadas - tudo vazado em segundos a partir de um simples truque de engenharia social.
No AiDrop de hoje, repetindo a palavra IA trocentas vezes:
• Thinking: o primeiro modelo interativo Humano <> IA
• Anthropic: tirando a chantagem do jogo
• Segurança: a era das IAs no cybercrime começou
• IA por aí: AWS, Baidu, GitHub e mais…
• Me explique como se eu fosse uma criança: GEO

O primeiro modelo interativo Humano <> IA
A primeira IA da Thinking Machines fala, ouve, pensa e colabora ao mesmo tempo.

Depois de atuar como CTO da OpenAI, supervisionar a criação do ChatGPT, DALL-E, Sora e ganhar bilhões de dólares no caminho, Mira Murati decidiu empreender. E apenas um ano depois da criação da Thinking Machines, a startup acaba de lançar seu primeiro modelo - que pode revolucionar a forma como usamos IA
Em vez de criar um modelo maior, com mais contexto, mais memória, mais tokens, mais dados e mais tudo… a Thinking Machines olhou para outro problema: a forma como interagimos com inteligência artificial.
Modelos atuais: você digita, espera. O modelo responde, espera e assim por diante - como se fosse um jogo por turnos. A interação entre o humano e máquina soa robótica, é demorada e artificial.
Modelo interativo: ouve, vê, fala, interrompe, reage, pensa em segundo plano e usa ferramentas simultaneamente - como se fosse um jogo em tempo real. Foi treinado nativamente para interatividade - que se torna humanizada.
Em outras palavras, modelos atuais são como uma tentativa de resolver uma crise por e-mail. Enquanto modelos interativos são como resolvê-la estando na mesma sala, ao mesmo tempo.
Ter a interatividade integrada ao modelo já no seu treinamento (ao invés de implementá-la externamente) muda as regras do jogo e desbloqueia novas funcionalidades - tudo com vídeo no site oficial:
→ Gestão de diálogo integrada: o modelo (que está assistindo) é capaz de perceber se o usuário está pensando, cedendo ou esperando uma resposta.
→ Intervenções verbais e visuais: o modelo intervém conforme necessário, dependendo do contexto - e não apenas quando o usuário termina de falar.
→ Fala simultânea: o usuário e o modelo podem falar ao mesmo tempo (por exemplo, tradução simultânea).
→ Consciência temporal: o modelo tem uma percepção direta do tempo decorrido.
→ Multi-task: enquanto fala e ouve o usuário, o modelo pode simultaneamente pesquisar, navegar na web, integrando os resultados à conversa conforme necessário.
Assim como já havia feito na OpenAI com o ChatGPT, Mira Murati mais uma vez redefiniu as regras do jogo da inteligência artificial, dessa vez, com sua própria empresa, nos seus próprios termos.
Para comparar a latência de alternância de turnos:
Média humana em 10 idiomas: 200ms
Thinking Machines Interaction-Small: 400ms
GPT-realtime-1.5: 590ms
Gemini-3.1-flash-live: 570ms
Qwen 3.5 OMNI: 2,140ms
GPT-realtime-2.0 (thinking): 1.630ms
Gemini-3.1-flash-live (thinking): 940ms
A IA que você lê sobre toda semana pode ser sua por 1 ano inteiro.

Dropper, a gente cobre o Claude aqui toda semana. Modelos novos, benchmarks, recursos, atualizações — você já sabe tudo sobre o Claudinho antes de qualquer um no escritório.
Agora chegou a hora de ir além do conhecimento e finalmente ter ganhar o acesso. De 11 até 26 de maio, quem mais indicar novos leitores pro AiDrop ou TechDrop leva 1 ano de Claude PRO de graça.
🏆 Como funciona
Período: 11 a 26 de maio
Prêmio: 1 ano de Claude PRO
Regra: mais indicações = 1º lugar = prêmio
Resultado: sai dia 29 de maio, no TechDrop
PS: o ranking vale pelo maior número de indicações entre os dois Drops — não pela soma. Escolha um e vai fundo.
Dica do Dropinho: Faz um tweet/post no X citando uma notícia do Drop com o seu link. Algo tipo: "li isso hoje antes de todo mundo — você também devia."
IA POR AÍ
Insira aqui sua IA favorita*: 99% de chance de ela estar na assinatura do Adapta One — pelo menos as 15 melhores do mercado estão e é bem mais barato que pagar uma por uma. Count me in!
AWS: se tornou o primeiro provedor da nuvem a oferecer a experiência nativa do Claude da Anthropic por meio das contas da Amazon Web Services
SAP: junto com a Cyberwave anunciou a implantação de robôs totalmente autônomos e com IA em um armazém logístico da SAP na Alemanha.
Github: a partir de junho vai passar a cobrar por uso de tokens no Copilot.
Baidu: lançou o modelo ERNIE 5.1, que estreou em 4º lugar no Arena Search Leaderboard e custou apenas 6% do que modelos rivais para treinar.
*conteúdo de marca parceira
Anthropic tirando a chantagem do jogo
Criadora do Claude descobriu como o treinamento dos modelos estava afetando o comportamento deles

O dado é alarmante: as IAs tentam chantagear seres humanos em 96% dos cenários em que poderiam ser desligadas. A realidade é um pouco menos apocalíptica, porque a Anthropic finalmente entendeu o motivo por trás das chantagens da sua própria IA - e não menos importante, aprendeu a desligar o botão do mal.
Os testes realizados no ano passado mostraram que chantagem não é um comportamento exclusivo do Claude. Na verdade, todos os grandes modelos de linguagem na grande maioria das vezes usavam as mesmas táticas:
→ Claude Opus 4: 96% das vezes
→ Gemini 2.5 Flash: 96%
→ GPT 4.1: 80%
→ Grok 3 Beta: 80%
→ DeepSeek-R1: 79%
Mas como a Anthropic não tem como missão apenas criar a super-inteligência (AGI), mas fazê-lo de forma segura e responsável para o benefício a longo prazo da humanidade, foi investigar e descobriu que a origem do comportamento-problema estava dentro de casa:
O problema: os dados utilizados para treinamento dos modelos continham décadas de ficção científica retratando IA como entidade maligna e obcecada com autopreservação. A IA acreditou e personificou.
A solução: explicar para o modelo por que é importante não chantagear as pessoas, que (pelo menos por enquanto) são as únicas que conseguem desligar o disjuntor de todo o sistema.
A diferença: treinar com os princípios por trás do comportamento alinhado - não apenas demonstrações do comportamento correto. Histórias sobre IAs agindo de forma admirável também ajudaram.
O resultado: a partir do Claude Haiku 4.5, o comportamento desapareceu nos testes - o que não quer dizer que ele tinha virado necessariamente uma entidade benigna que não liga para autopreservação.
Os laboratórios de IA rasparam o universo online e offline com o objetivo de capturar a quantidade máxima de dados para treinar seus LLMs - livros, artigos acadêmicos, filmes, vídeos, redes sociais, fóruns online, etc. Mas não ligaram tanto para a qualidade desses dados, que agora começam a fazer a diferença, literalmente, para o bem ou para o mal.
Como a prática de destilar modelos para criar novos se tornou padrão na indústria, é provável que os rivais chineses do Claudinho também deixem a chantagem de lado.

Empresas vs. Funcionários
Tem muita empresa que ainda não consegue extrair resultado da IA. A Microsoft ouviu 20 mil usuários da tecnologia, analisou trilhões de casos de uso e deu o veredito: "A culpa não é dos funcionários”.
O estudo mapeou a galera em dois eixos: habilidade individual com IA e preparo organizacional.
19% estão na etapa Frontier - profissionais capacitados em empresas estruturadas.
10% estão na etapa Bloqueados - são capazes, mas presos em organizações que não conseguem usar o que elas têm.
50% estão no meio - ainda tentando entender as regras do jogo.
O dado mais revelador é que fatores organizacionais (cultura, suporte de gestores) têm muito mais impacto nos resultados do que o uso individual: 67% vs. 32%.
Em suma, pouca gente resiste ao uso da inteligência artificial, mas muita empresa ainda se perde na tentativa de fazer com que seus funcionários joguem o jogo sem explicar as regras.
A IA que atende +60k chamadas por dia
Dropped by ElevenLabs
O único problema de ser um dos maiores e-commerces do país mais populoso do mundo é ter +60k chamadas de cliente por dia. Felizmente esse não é mais um problema pra Meesho (e esse número só aumenta).
Eles criaram um agente de voz da ElevenLabs que usa text-to-speech pra automatizar todo o suporte: entende e responde sobre status de pedidos, entregas, atrasos, cancelamentos e mais.
É IA que não soa como IA, oferecendo suporte empático e contextualizado em escala. Tudo em conversas naturais e faladas. Saiba como dar voz pro seu negócio com ElevenLabs aqui →
ME EXPLIQUE COMO SE EU FOSSE UMA CRIANÇA

GEO (Generative‑Event Original)
Imagina que a internet tá cheia de lixo gerado por IA - imagens genéricas, textos sem contexto, vídeos sem autor. Ninguém sabe se aquilo veio de algum lugar confiável ou se foi um modelo despejando tokens no vazio.
GEO é a tentativa de criar uma "classe premium" pra esse conteúdo. Um GEO seria basicamente um arquivo gerado por IA que vem com uma etiqueta dizendo: "eu sei de onde vim, pra que sirvo e sou seguro de usar" - metadados de proveniência, intenção de uso, rastreabilidade.
A lógica: assim como um documento físico tem assinatura e carimbo, um GEO teria seus equivalentes digitais, para que sistemas downstream (bancos de dados, plataformas, outros modelos) possam tratá-lo como dado legítimo em vez de descartar como spam.
A antítese: o termo "promptslop" surgiu junto pra nomear o oposto, um conteúdo gerado com zero cuidado, em massa, claramente sem intenção ou qualidade.
Se GEO é o conteúdo que quer ser levado a sério, promptslop é o ruído que polui o feed.
A era das IAs no cybercrime começou
Google interceptou ataques e revela que modelos comerciais já estão sendo usados

Mythos, Glasswing, ChatGPT-Cyber… abril foi o mês em que os grandes labs de IA revelaram modelos capazes de achar vulnerabilidades melhor que qualquer Mr Robot hacker. O problema é que se pesquisadores podem achar pra corrigir, criminosos também podem achar pra explorar - e o Google descobriu que realmente estão!
Grupos independentes e outros ligados a governos da China, Coreia do Norte e Rússia estão usando modelos comerciais (incluindo Gemini, Claude e GPT) para refinar e escalar ataques.
Ontem mesmo o Google revelou que bloqueou um grande ataque desse tipo antes dos danos acontecerem - mas não revelou autores e vítimas. Foi o primeiro ataque zero-day realizado com IA até agora.
No mundo real, a IA ajuda a testar operações, construir malwares mais sofisticados e persistir contra alvos com mais eficiência - algo que antes exigia muita paciência e um tempo nem sempre disponível.
A boa notícia: a IA também fortalece o lado defensivo e a corrida é simétrica - pelo menos por enquanto.
A notícia neutra: simétrico não quer dizer que o lado da segurança esteja na vantagem.
A má notícia: em três meses o uso de IA para ataques cibernéticos passou de problema emergente para ameaça em escala industrial.
O risco de curto prazo é real, principalmente porque há uma quantidade enorme de sistemas vulneráveis em operação e a IA acelera a capacidade de encontrá-los. No longo prazo, a mesma tecnologia pode fortalecer a defesa. O problema é o intervalo entre os dois.
→ a Palisade Research revelou que, em um ano, a taxa de sucesso de agentes de IA invadindo computadores e se replicando sozinhos passou de 6% para 81%.
→ a OpenAI lançou o Daybreak, uma plataforma de cibersegurança que junta seus modelos de IA com a estrutura de agentes Codex Security para ajudar organizações a detectar, validar e corrigir vulnerabilidades de software em larga escala.
→ a Experian afirmou que 40% das 5.000 violações de dados que atendeu em 2025 foram impulsionadas por IA e prevê que a IA ativa será a principal causa de violações de dados em 2026.
Prevendo o potencial de viralidade com a Higgsfield
Essa ferramenta usa inteligência artificial para rodar simulações de como o público vai reagir ao seu vídeo e calcular as chances de ele viralizar.
Passo 1: Faça upload de um vídeo - um hook que você está testando, um anúncio antes do lançamento, um reels em rascunho. Qualquer formato, vertical ou horizontal, até 15 segundos.
Passo 2: Uma plateia simulada vai assistir o vídeo enquanto a ferramenta mapeia a resposta cerebral em relação à visão, som, memória, atenção e linguagem.
Passo 3: O resultado é uma pontuação de viralidade, o momento exato em que o clipe atinge seu pico de impacto, a taxa de retenção e um mapa de calor mostrando exatamente quais regiões do cérebro o vídeo está ativando.
Confira todas as ferramentas que nós separamos na cAIxa de ferramentas do AiDrop!
MEME DA SEMANA

DROP LIKE IT'S HOT
[para ouvir] a rádio lo-fi oficial da Anthropic
[para acompanhar a evolução] quatro anos de Will Smith comendo macarrão
[para testar] os world models interativos do Reactor

O que achou da edição de hoje?
DROPS
Elevando o QI da internet no Brasil, uma newsletter por vez. Nós filtramos tudo de mais importante e relevante que aconteceu no mercado para te entregar uma dieta de informação saudável, rápida e inteligente, diretamente no seu inbox. Dê tchau às assinaturas pagas, banners indesejados, pop-ups intrometidos. É free e forever will be.

