Skip to content

Sim, a IA é fascinante. Sim, ela pode escrever textos incríveis, resumir PDFs chatíssimos e até parecer mais articulada que muita gente por aí. Mas não se engane: por trás de toda essa eloquência estatística, existem limites sérios e riscos práticos que todo usuário — especialmente os não-programadores — precisa levar a sério. Se você acha que a IA é infalível ou mágica, este capítulo é seu banho gelado.

A IA inventa coisas. Ela não sabe que está mentindo — porque ela não sabe de nada. Ela apenas reconhece padrões e tenta prever a próxima palavra que “parece certa” com base em exemplos anteriores. Às vezes acerta. Às vezes parece um tio bêbado inventando estatísticas no churrasco.

Exemplos clássicos:

  • Criar referências de artigos acadêmicos que nunca existiram.
  • Atribuir frases a autores que nunca disseram aquilo.
  • “Explicar” conceitos com lógica que parece boa — mas desmorona com um pingo de checagem.

Dario Amodei, CEO da Anthropic, escreveu um artigo com uma analogia que ajuda a entender por que isso acontece. Ele chama esse fenômeno de “os perigos da ignorância”:

Os sistemas modernos de IA generativa são opacos de uma forma que difere fundamentalmente do software tradicional. Se um programa de software comum faz algo — por exemplo, um personagem em um videogame diz uma linha de diálogo, ou meu aplicativo de entrega de comida me permite dar gorjeta ao meu motorista — ele faz essas coisas porque um humano as programou especificamente. A IA generativa não é nada disso . Quando um sistema de IA generativa faz algo, como resumir um documento financeiro, não temos ideia, em um nível específico ou preciso, por que ele faz as escolhas que faz — por que ele escolhe certas palavras em vez de outras, ou por que ocasionalmente comete um erro apesar de geralmente ser preciso. Como meu amigo e cofundador Chris Olah gosta de dizer , os sistemas de IA generativa são mais desenvolvidos do que construídos — seus mecanismos internos são "emergentes" em vez de diretamente projetados. É um pouco como cultivar uma planta ou uma colônia de bactérias: definimos as condições de alto nível que direcionam e moldam o crescimento 1 , mas a estrutura exata que emerge é imprevisível e difícil de entender ou explicar. Observando esses sistemas, o que vemos são vastas matrizes de bilhões de números. De alguma forma, eles computam tarefas cognitivas importantes, mas não é claro como exatamente o fazem.

Essa imprevisibilidade explica por que modelos de linguagem, podem gerar respostas que parecem confiantes, mas estão completamente erradas. Não é mentira. Não é erro de código. É simplesmente ignorância fantasiada de sabedoria.

⚠️ Sempre revise tudo. Se algo parecer estranho, pesquise. E se tudo parecer certo demais… pesquise duas vezes. Alisa se achar algo estranho aqui você já sabe que a culpa não é minha!

2. Confiança artificial: quando o erro vem de terno e gravata

A IA foi treinada para soar natural, fluente e segura. Isso é ótimo para parecer inteligente. Mas terrível quando ela está errada — o que acontece com frequência maior do que você gostaria. Ela não diz “acho que”, “posso estar enganada” ou “melhor confirmar isso”. Ela diz “é isso”, com a entonação de quem acabou de ganhar o Nobel — mesmo quando está falando uma bobagem monumental.

Resultado: muita gente acredita no que ela diz, só porque “parecia certo”.

3. Dados desatualizados: o relógio da IA parou

A maioria dos modelos de IA tem um corte de conhecimento.
Por exemplo:

  • GPT-3.5 sabe até 2021.
  • GPT-4 (sem navegação web) vai até 2023.
  • Claude 3 pode ter corte em 2023 também, a depender da versão.

Se você perguntar algo sobre:

  • Uma lei que mudou este ano
  • Um evento atual
  • Uma gíria nova do TikTok

A resposta pode ser um exercício criativo de adivinhação com cara de fato.

Regra de ouro: sempre cheque a data de corte do modelo. E, se for algo recente, não confie cegamente.

4. Privacidade e dados sensíveis: a IA não é seu diário

Acredite, por mais amigável que pareça, a IA não é o lugar ideal para despejar sua alma (ou os segredos da sua empresa).

Evite digitar:

  • Dados pessoais (seus ou de terceiros)
  • Informações confidenciais de negócios
  • Senhas, números de documentos, contratos sigilosos

Mesmo que a OpenAI, Anthropic ou Google digam que "não salvam", "não retêm", "não treinam com seus dados" — a regra é simples: só compartilhe aquilo que você compartilharia num post público por engano.

Segurança começa com bom senso.

5. Viés e preconceito: o espelho sujo da humanidade

A IA aprende com o que encontra na internet, livros, redes sociais e outros textos criados por… humanos.
E humanos, como sabemos, não são exatamente exemplos de neutralidade e justiça universal.

Resultado? A IA pode reproduzir:

  • Estereótipos raciais, de gênero, idade ou classe
  • Discriminação sutil (ou explícita)
  • Respostas enviesadas por cultura, idioma ou localização

Ela não faz isso por mal. Faz porque aprendeu com dados que continham esses vieses.
Ou seja, ela reflete o que viu — mesmo quando isso é problemático, ofensivo ou simplesmente errado.

Use senso crítico. Sempre.

IA é ferramenta, não guru

Trate a IA como uma assistente promissora, mas inexperiente. Ela pode ajudar você a pensar, escrever, decidir, planejar… Mas não delegue sua autonomia a um preditor de tokens, ao menos que tenha coragem. A era da inteligência artificial não exige que você seja um especialista técnico — Mas exige, sim, que você seja um usuário crítico, atento e responsável. Porque no fim do dia, quem responde por suas decisões… é você.