- AiDrop
- Posts
- 🤖 Piratas do Prompt
🤖 Piratas do Prompt
+ IA por aí: Anthropic, ElevenLabs, Amazon e mais...

Hey, Droppers!
Na coluna ‘Ferrou’ de hoje: a probabilidade de um desastre causado pela IA – conhecido como p(doom) – é bem alta. Pelo menos é o que o CEO do Google, Sundar Pichai, afirmou em uma entrevista. O palpite está em linha com a opinião de Sam Altman (>50% de chances), mas maior que as previsões de Elon e Dario Amodei (Anthropic), que ficam entre 10-25%.
No AiDrop de hoje, repetindo a palavra IA trocentas vezes:
• Piratas do Prompt: os usos (i)legais de obras
• Gemini CLI: naturalizando os terminais
• SaaS de IA: a trend indesejada dos vazamentos
• IA por aí: Anthropic, ElevenLabs, Amazon e mais...
• Prompt Like a Pro: Não termine o ano no vermelho!

DIREITOS AUTORAIS
Inspiração, treinamento ou uso ilegal?

A luta dos direitos autorais na IA esquentou – e a Anthropic venceu o primeiro round, mas não a luta. Nessa semana, um juiz validou o uso de obras compradas pela empresa para treinar LLMs sob fair use. Já os mais de 5 milhões de livros pirateados, que também foram usados nos treinamentos, não entram na mesma esfera.
A se rolar multinha, a conta é quase trilionária. A estimativa teórica é que o valor possa chegar em US$ 750 bilhões (5 milhões x US$ 150k*/obra). Seria o suficiente para quebrar qualquer empresa. É +12x o valuation de US$ 60 bilhões da própria Anthropic.
A decisão ainda não é final, cabe recurso e a morosidade é sempre grande na justiça. Mas esse caso é mais do que um problema isolado: ele consolida uma nova fronteira legal para o setor inteiro. O retrospecto mostra um cenário caótico:
Meta:
2023: Em julho de 2023, 13 autores processaram a Meta por ter usado “shadow libraries” (bibliotecas de livros pirateados) para treinar o Llama.
2025: Dois anos depois, o juiz Vince Chhabria arquivou o caso por falhas na demonstração de dano econômico, mas deixou claro que ações mais bem fundamentadas podem ter mais sucesso.
OpenAI:
2023: Ação coletiva da Authors Guild acusou a empresa de copiar obras integrais; no mesmo semestre o New York Times entrou com queixa semelhante.
2025: Os processos foram consolidados e avançam para fase de provas; a corte ordenou preservação de logs e rejeitou pedidos de arquivamento.
De pequena batalha em pequena batalha, a guerra entre IAs e detentores de direitos vai se acirrando – e quanto mais multimídia (alô Disney), mais poder de fogo e lobby começam a equilibrar a balança dos bilhões de dólares para as custas legais. O resultado disso tudo ainda está longe – e por enquanto os advogado estão proibidos de dormir com o celular no silencioso.
P.S: A Creative Commons tenta atacar o problema. A ONG lançou o projeto CC Signals, uma marca d’água legal e técnica – que permite a cada detentor de dados declarar se e como seu conteúdo pode ser reutilizado por IAs.
MODELOS
Naturalizando o Terminal

Se você já encarou um terminal Linux ou Python, sabe: é tudo na base do comando digitado (e decorado). Se nunca fez isso, saiba que a famosa CLI (Command-Line Interface) está mudando e deixando de ser um território 100% técnico.
Com a chegada dos modelos de IA aos terminais, a linha de comando ganhou um copiloto que entende linguagem natural e facilita (muito) o processo. Ou seja: o resultado é mais agilidade no uso e no resultado.
Nesse cenário, o Google lançou o Gemini CLI, um agente de IA que leva linguagem natural aos terminais – com API gratuita, suporte local ou na nuvem e com MCP. Ele agora é capaz de gerar imagens (Imagen-4) e vídeos (VEO 3), num passo para unir devs e designers no mesmo ambiente.
Outros grandes players já vinham explorando caminhos nesse mercado, mas cada um adotou estratégias diferentes:
Codex CLI (via API da OpenAI): pode ler arquivos, gerar códigos e compreender imagens, executa inicialmente os modelos codex, codex-mini e o4-mini – mas pode ser alterado.
Claude Code (via API da Anthropic): com os Claudes Opus e Sonnet, é capaz de editar, testar e gerar commits em múltiplos arquivos com clareza; ideal para navegação em grandes repositórios e executar muitas alterações guiadas por instruções. É considerado um dos melhores para utilizar em coding.
OpenCode (via hardware local ou APIs externas): um agente de IA que possui todas tarefas básicas em texto para navegar, ler e escrever arquivos diretamente do terminal. Pode rodar modelos locais através do seu hardware ou usar provedores externos (OpenRouter, OpenAI, Gemini etc).
Com cada vez mais gente descendo para o play, a tendência é que isso deixe de ser algo gourmet Premium e se torne algo acessível para todos os devs – algo excelente, principalmente para quem está iniciando nesse mercado.
IA POR AÍ
Anthropic criou um espaço novo dentro do Claude para você organizar seus Artifacts e compartilhá-los; disponível para todos usuários.
Higgsfield lançou um modelo de imagens fotorrealista ‘aesthetic’, assim como o MidJourney.
Google adicionou ao AI Studio os modelos Imagen-4 e Imagen-4-Ultra, gratuito na plataforma e pago na API.
ElevenLabs lançou o VoiceDesign V3, um grande update na sua plataforma para personalização de vozes, usando o novo modelo V3.
OpenAI liberou os conectores MCP que estavam disponíveis via Pesquisa profunda para todos modelos; apenas para usuários Pro.
Amazon criou um sistema de IA para identificar quais notificações no Ring são mais importantes que outras.
Indique o Drop: mande seu link de indicação para todo mundo, acumule pontos e troque por merchs exclusivos!
![]() | O Google DeepMind lançou o AlphaGenome, um modelo de IA capaz de prever os efeitos de mutações genéticas em milhares de processos moleculares, analisando sequências de até 1 milhão de pares de bases — 100x mais do que modelos anteriores. Ele superou ferramentas especializadas em diversos testes e ajudou a identificar mutações ligadas à leucemia. Treinado em apenas quatro horas, o modelo acelera a pesquisa genética em larga escala, oferecendo aos cientistas um poderoso ponto de partida para entender doenças. |
PROMPT LIKE A PRO
Não termine o ano no vermelho!
Você tá seguindo o planejamento financeiro que fez ara 2025? Se o primeiro semestre não foi como você gostaria, use a IA pra melhorar o cenário no segundo:
# Atue como um especialista em finanças e orçamento.
# Gere um plano de orçamento abrangente com base na {renda}, {despesas} e {metas de economia} fornecidas.
# Analise os dados e proponha um orçamento realista que cubra necessidades essenciais, pagamento de dívidas e a meta de poupança sem comprometer a estabilidade.
# Inclua ideias de redução de custos e ajustes para evitar terminar o ano no vermelho.
## Renda:
- Entrada 1
- Entrada 2
## Despesas:
- Saída 1
- Saída 2
## Metas de economia:
- Objetivo 1
- Objetivo 2
VAZAMENTOS
SaaS Vazados no Zap

Na corrida da IA, não é só modelo que vale ouro — os system prompts viraram a alma dos produtos. Mas muitos SaaS estão deixando esse segredo escapar por falhas técnicas ou descuidos.
System Prompt: conjunto de instruções ou configurações que moldam o comportamento e o estilo de resposta de um modelo de linguagem. É, basicamente, o "cérebro por trás da personalidade" – ou a “fórmula secreta da Coca-Cola”.
SaaS: ferramentas na nuvem – nesse caso: que usam inteligência artificial – para automatizar tarefas, gerar conteúdo ou analisar dados. Tudo no modelo “assine e use”.
O caso mais recente é o da Cluely, que viu seu system prompt caindo na net e já está sendo replicado em fóruns e repositórios públicos. O documento revela não só a identidade e os comandos internos do assistente, mas também sua arquitetura – basicamente um raio-x do agente de IA.
A Cluely não está sozinha, esse fenômeno virou quase um subgênero no GitHub. Só nesse ano tudo isso aconteceu:
v0 (Vercel): dump do assistente de design com regras internas.
Lovable AI: prompt e comandos internos circulando no Reddit.
Manus AI: exposição por falha de isolamento de diretórios.
Same.dev: lógica do assistente publicada em thread no X.
Replit: prompt técnico do agente de código exposto.
Cursor: conteúdo revelado em uma atualização da IDE.
Devin AI: arquivo com centenas de instruções e ferramentas vazado.
Bolt AI: incluso em dump com 6.500 prompts.
Esses vazamentos não são simples acidentes… são sintomas da confiança cega na caixa-preta dos LLMs. Muitos desses produtos tratam o prompt como algo invisível, mas na prática ele pode ser extraído com um jailbreak bem feito, uma URL mal protegida ou até um update descuidado.
O resultado é que parte do capital intelectual de startups de IA está virando domínio público, linha por linha. Para quem constrói produtos com base em LLMs, a lição é clara: proteger o prompt é tão importante quanto proteger o modelo. A menos que você seja um PM altruísta que quer ver seu produto replicado por aí.
GAME: QUAL IMAGEM É GERADA POR IA?
Você consegue acertar qual delas é a selfie e qual é a selfia?
![]() Alternativa A | ![]() Alternativa B |
Qual das fotos nunca foi tirada? |
Faça Login ou Inscrever-se para participar de pesquisas. |

O que achou da edição de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
DROPS
Elevando o QI da internet no Brasil, uma newsletter por vez. Nós filtramos tudo de mais importante e relevante que aconteceu no mercado para te entregar uma dieta de informação saudável, rápida e inteligente, diretamente no seu inbox. Dê tchau as assinaturas pagas, banners indesejados, pop-ups intrometidos. É free e forever will be.

Reply