Aparência
Sim, a IA é fascinante. Sim, ela pode escrever textos incríveis, resumir PDFs chatíssimos e até parecer mais articulada que muita gente por aí. Mas não se engane: por trás de toda essa eloquência estatística, existem limites sérios e riscos práticos que todo usuário — especialmente os não-programadores — precisa levar a sério. Se você acha que a IA é infalível ou mágica, este capítulo é seu banho gelado.
A IA inventa coisas. Ela não sabe que está mentindo — porque ela não sabe de nada. Ela apenas reconhece padrões e tenta prever a próxima palavra que “parece certa” com base em exemplos anteriores. Às vezes acerta. Às vezes parece um tio bêbado inventando estatísticas no churrasco.
Exemplos clássicos:
- Criar referências de artigos acadêmicos que nunca existiram.
- Atribuir frases a autores que nunca disseram aquilo.
- “Explicar” conceitos com lógica que parece boa — mas desmorona com um pingo de checagem.
Dario Amodei, CEO da Anthropic, escreveu um artigo com uma analogia que ajuda a entender por que isso acontece. Ele chama esse fenômeno de “os perigos da ignorância”:
Os sistemas modernos de IA generativa são opacos de uma forma que difere fundamentalmente do software tradicional. Se um programa de software comum faz algo — por exemplo, um personagem em um videogame diz uma linha de diálogo, ou meu aplicativo de entrega de comida me permite dar gorjeta ao meu motorista — ele faz essas coisas porque um humano as programou especificamente. A IA generativa não é nada disso . Quando um sistema de IA generativa faz algo, como resumir um documento financeiro, não temos ideia, em um nível específico ou preciso, por que ele faz as escolhas que faz — por que ele escolhe certas palavras em vez de outras, ou por que ocasionalmente comete um erro apesar de geralmente ser preciso. Como meu amigo e cofundador Chris Olah gosta de dizer , os sistemas de IA generativa são mais desenvolvidos do que construídos — seus mecanismos internos são "emergentes" em vez de diretamente projetados. É um pouco como cultivar uma planta ou uma colônia de bactérias: definimos as condições de alto nível que direcionam e moldam o crescimento 1 , mas a estrutura exata que emerge é imprevisível e difícil de entender ou explicar. Observando esses sistemas, o que vemos são vastas matrizes de bilhões de números. De alguma forma, eles computam tarefas cognitivas importantes, mas não é claro como exatamente o fazem.
Essa imprevisibilidade explica por que modelos de linguagem, podem gerar respostas que parecem confiantes, mas estão completamente erradas. Não é mentira. Não é erro de código. É simplesmente ignorância fantasiada de sabedoria.
⚠️ Sempre revise tudo. Se algo parecer estranho, pesquise. E se tudo parecer certo demais… pesquise duas vezes. Alisa se achar algo estranho aqui você já sabe que a culpa não é minha!
2. Confiança artificial: quando o erro vem de terno e gravata
A IA foi treinada para soar natural, fluente e segura. Isso é ótimo para parecer inteligente. Mas terrível quando ela está errada — o que acontece com frequência maior do que você gostaria. Ela não diz “acho que”, “posso estar enganada” ou “melhor confirmar isso”. Ela diz “é isso”, com a entonação de quem acabou de ganhar o Nobel — mesmo quando está falando uma bobagem monumental.
Resultado: muita gente acredita no que ela diz, só porque “parecia certo”.
3. Dados desatualizados: o relógio da IA parou
A maioria dos modelos de IA tem um corte de conhecimento.
Por exemplo:
- GPT-3.5 sabe até 2021.
- GPT-4 (sem navegação web) vai até 2023.
- Claude 3 pode ter corte em 2023 também, a depender da versão.
Se você perguntar algo sobre:
- Uma lei que mudou este ano
- Um evento atual
- Uma gíria nova do TikTok
A resposta pode ser um exercício criativo de adivinhação com cara de fato.
Regra de ouro: sempre cheque a data de corte do modelo. E, se for algo recente, não confie cegamente.
4. Privacidade e dados sensíveis: a IA não é seu diário
Acredite, por mais amigável que pareça, a IA não é o lugar ideal para despejar sua alma (ou os segredos da sua empresa).
Evite digitar:
- Dados pessoais (seus ou de terceiros)
- Informações confidenciais de negócios
- Senhas, números de documentos, contratos sigilosos
Mesmo que a OpenAI, Anthropic ou Google digam que "não salvam", "não retêm", "não treinam com seus dados" — a regra é simples: só compartilhe aquilo que você compartilharia num post público por engano.
Segurança começa com bom senso.
5. Viés e preconceito: o espelho sujo da humanidade
A IA aprende com o que encontra na internet, livros, redes sociais e outros textos criados por… humanos.
E humanos, como sabemos, não são exatamente exemplos de neutralidade e justiça universal.
Resultado? A IA pode reproduzir:
- Estereótipos raciais, de gênero, idade ou classe
- Discriminação sutil (ou explícita)
- Respostas enviesadas por cultura, idioma ou localização
Ela não faz isso por mal. Faz porque aprendeu com dados que continham esses vieses.
Ou seja, ela reflete o que viu — mesmo quando isso é problemático, ofensivo ou simplesmente errado.
Use senso crítico. Sempre.
IA é ferramenta, não guru
Trate a IA como uma assistente promissora, mas inexperiente. Ela pode ajudar você a pensar, escrever, decidir, planejar… Mas não delegue sua autonomia a um preditor de tokens, ao menos que tenha coragem. A era da inteligência artificial não exige que você seja um especialista técnico — Mas exige, sim, que você seja um usuário crítico, atento e responsável. Porque no fim do dia, quem responde por suas decisões… é você.