
Hey, Droppers!
Na coluna ‘Ferrou’ de hoje: uma loja dentro da Shein decidiu usar um modelo gerado por IA para promover suas novas camisas de verão. Até aí tudo bem, mas a treta começou quando a loja em questão pensou que era uma boa ideia usar o rosto de Luigi Mangione, o acusado pela morte do CEO da UnitedHealthcare.
No AiDrop de hoje, repetindo a palavra IA trocentas vezes:
• AlterEgo: lendo seus “quase” pensamentos
• Estudo: por que chatbots alucinam?
• Critterz: o filme com ajuda da OpenAI
• IA por aí: Mistral, Google, OpenAI, ByteDance e mais…
• Me explique como se eu fosse uma criança: Retrieval Augmented Generation

DEVICES
AlterEgo: lendo seus “quase” pensamentos

A sua relação com a IA começou com texto, foi para os chats por voz… E em breve pode evoluir para debates quase no nível do pensamento. Da série gadgets do futuro, vem aí o AlterEgo: um aparelho que transforma o ato de falar “internamente” em comandos invisíveis.
O dispositivo não lê a mente, mas chega perto: capta micro-movimentos da língua e garganta quando você “fala em silêncio”, manda pra IA e depois gera respostas em áudio enviado de volta por condução óssea. Quase uma ciber-telepatia.
Embora, à primeira vista, pareça uma magia que entra na sua mente, o aparelho não tem ligação direta ao cérebro – ao contrário da tecnologia da Meta, que lê ondas cerebrais:
Como ele interpreta: lê apenas micro-movimentos da língua, músculos faciais e cordas vocais.
Leitura: detecta apenas a intenção de fala, mas não entra no cérebro (sem dados de teste ainda).
Aplicação: acessibilidade (usuários com perda de fala), uso em ambientes barulhentos e integração com agentes de IA.
Status: após o anúncio, foi aberta uma lista de espera para usuários testarem.
A grande sacada do AlterEgo é ser não apenas um gadget, mas um canal direto para conversar com IAs sem depender de telas ou voz – para automatizar e já documentar aqueles pensamentos velozes e furiosos de quando não estamos com papel e caneta. #AlexaTôSemForçasPraFalarMasApagaAsLuzes
DADOS
O custo (in)visível da desordem nos dados
Oferecimento Leading AI
R$ 9,4 milhões. Esse foi o impacto médio anual da má qualidade de dados em empresas brasileiras em 2024. Mais do que perda operacional, dados desconectados atrasam decisões, reduzem a eficiência e comprometem a confiança do board.
O paradoxo é claro: 92% dos executivos afirmam que ser data-driven é prioridade, mas só 26% dizem ter confiança nessas decisões. O resultado é um ecossistema fragmentado, cada área falando uma “língua” e a empresa perdendo velocidade.
A questão não é se você vai investir em dados – isso já está acontecendo. A pergunta é: você vai apenas acumular informação ou vai usá-la de forma estratégica para transformar decisões em vantagem competitiva?
Quer elevar o nível? As Masterclasses exclusivas do Leading AI com patrocínio da IBM, certificação oficial do MIT SMR Brasil e lideradas por Sam Ransbotham (referência mundial no setor) estão aí pra isso e as inscrições estão nesse link.
*As inscrições serão analisadas brevemente antes da confirmação.
IA POR AÍ
Mistral recebeu um funding de €1,7 bilhão de uma rodada Série C e se tornou a maior empresa de IA da Europa.
Google AI Mode agora está disponível no Brasil e em outros 5 idiomas, em lançamento gradual para os usuários.
ByteDance lançou a nova versão do Seedream, seu gerador e editor de imagens no estilo nano-banana, custando US$ 0,03/imagem.
VEO 3 foi adicionado à API do Gemini e está custando ~50% a menos do que seu preço original.
OpenAI lançou secretamente um modelo novo chamado GPT-Image-mini-0724, possivelmente um competidor ao novo modelo do Google.
X disponibilizou o algoritmo da sua aba For You publicamente, para todos terem conhecimento de como ela funciona.
LLMs
Por que chatbots alucinam?

Por séculos acreditamos que só os humanos eram capazes de mentir. Agora, os chatbots mostram que a capacidade de distorcer a realidade não é uma exclusividade nossa. Em vez de dizer “Não sei”, as IAs improvisam sem dados, mas com muita confiança. O nome técnico para isso é "alucinação".
Diferente do que se pensava, isso não é exatamente um bug. A real é que essa é uma consequência dos treinamentos – e quem fala é a própria OpenAI. O pré-treinamento ensina a prever a próxima palavra sem verificação de qualidade: bom pra fluência, mas com tendência ao improviso na falta de dados.
O problema se perpetua ao longo dos últimos anos de avanços da IA, pois os benchmarks atuais incentivam o chute. Segundo os autores, é a lógica de múltipla escolha: o sistema é recompensado por tentar, mesmo sem certeza, e punido por se abster. Assim, a IA internaliza que é melhor inventar do que ficar em silêncio.
"Mas Droppers, como eu evito isso no dia a dia?":
Camada 1 - Se você só usa o ChatGPT: utilize o GPT-5-Thinking ou Thinking-Mini; o Mini pensa por menos tempo, mas já garante mais segurança.
Camada 2 - Segurança dentro do prompt: programe a IA para responder apenas acima de certo limiar de certeza e, se não conseguir, responder "não sei".
Camada 3 - Fine-tuning na área de domínio: para o seu assistente/produto, faça refinamento das respostas através da API para reduzir o espaço de erro utilizando a sua base de dados para ser mais confiável.
Camada 4 - Utilize RAG (Retrieval Augmented Generation): acople buscadores ou bases de conhecimento para trazer fatos atualizados em tempo real.
As alucinações não vão desaparecer tão cedo, mas podem ser contidas com boas práticas na aplicação (e as dicas acima ajudam a transformar o risco em algo administrável). Se os modelos são especialistas em prever palavras, por enquanto cabe a nós usuários tentarem prever onde não pode haver espaço para improviso.
PS: Gostou desse conteúdo? Indique o AiDrop para mais pessoas e ajude na missão de aumentar o QI da internet brasileira, uma newsletter por vez. É só pegar seu link de indicação aqui.

Judite, eu quero cancelar essa linha…
Lembra da maior inimiga do Fábio Porchat nos vídeos do Porta dos Fundos?
Pois na nova campanha do ElevenLabs ela foi turbinada com IA, para mostrar como os atendentes digitais podem atuar na vida real.
Alguns exageros? Talvez! Mas ponto pela criatividade na criação do comercial.
ENTRETENIMENTO
Critterz: a animação com toque de GPT

“Fazer filmes é algo caro e demorado!” Essa frase certamente foi escrita antes do boom das IAs generativas, que tentam dominar o jogo também nesse setor. E a mais nova iniciativa vem da OpenAI, que vai participar da produção de um longa de animação chamado Critterz.
O filme estreia em 2026 e foi criado por Chad Nelson (diretor de criação na própria OAI). A ideia nasceu ainda com o gerador de imagens Dall-E usado para rascunhar personagens e evoluiu com o Sora (veja a comparação) antes de ganhar corpo para se tornar um filme completo.
É tudo IA? Não! Para transformar o curta em um longa-metragem, artistas humanos vão criar rascunhos que depois serão turbinados pelas ferramentas da OpenAI. As vozes também devem vir de atores reais. Mas a IA deve otimizar muita coisa:
Tempo de produção: 9 meses vs. 3 anos em média;
Orçamento: >US$ 30 milhões vs. +US$ 100 milhões tradicionais;
Ferramentas: GPT-5, modelos de imagem e pipeline de IA híbrida vs. engines proprietárias e pipelines 100% humanas
Equipe: ~30 pessoas com participação nos lucros vs. ~400-500 profissionais em departamentos segmentados.
Zoom out: a produção rola em meio à treta da indústria: Disney, Universal e Warner processam players como a Midjourney por violar direitos autorais, enquanto sindicatos de roteiristas e atores batem o pé contra risco de serem trocados por IA.
A participação da OpenAI na produção é simples: ceder recursos computacionais (nada baratos) para o criador. E o que ela ganha em troca? Uma prova das grandes diferenças de esforço na comparação “IA vs Estúdios tradicionais”. E mais hype sobre os produtos, claro.
ME EXPLIQUE COMO SE EU FOSSE UMA CRIANÇA

RAG: Retrieval-Augmented Generation
Imagine que você tem uma biblioteca mágica onde os livros não só têm todas as respostas, mas também sabem como contar histórias incríveis.
Quando você faz uma pergunta, em vez de apenas ler um livro, você pode pedir para os livros se juntarem e criarem uma nova história só para você, misturando as melhores partes de cada um.
Isso é mais ou menos o que RAG faz. O modelo de IA recupera informações de um banco de dados e usa essas informações para gerar respostas.
CAIXA DE FERRAMENTAS

Depois de criar imagens no Nano-banana, que tal dar vida a elas?
Acesse o Wan.video (gerador de vídeos do Alibaba) e entre com o Google;
Pegue seus 10 créditos diários — que aceleram a geração de vídeos e imagens;
Vá na aba Generate e escolha o modelo “Image to Video”;
Anexe sua imagem e dê o prompt que deseja.
A geração de imagens e vídeos é ilimitada, mas o prazo para geração gratuito é maior. Se você usar os créditos, pode acelerar a criação para poucos minutos!
Confira todas ferramentas que nós separamos na cAIxa de ferramentas do AiDrop!
MEME DA SEMANA


O que achou da edição de hoje?
DROPS
Elevando o QI da internet no Brasil, uma newsletter por vez. Nós filtramos tudo de mais importante e relevante que aconteceu no mercado para te entregar uma dieta de informação saudável, rápida e inteligente, diretamente no seu inbox. Dê tchau às assinaturas pagas, banners indesejados, pop-ups intrometidos. É free e forever will be.
