Nos últimos anos, líderes de gigantes da tecnologia têm cantado em coro a mesma música futurista: estamos a poucos passos de criar superinteligências capazes de reinventar a ciência, multiplicar o conhecimento humano e até desafiar a própria morte. ✨
Mark Zuckerberg fala em “desenvolver superinteligência”. Dario Amodei prevê que até 2026 teremos modelos “mais inteligentes que um ganhador do Nobel”. Sam Altman afirma com confiança que “já sabemos como construir AGI”.
Mas a pergunta é inevitável: devemos acreditar nisso?
Segundo a ciência atual da cognição humana, talvez não. E a razão é simples, porém profunda: linguagem não é inteligência.
Conteúdo
- 🧠 Afinal, o que os LLMs realmente fazem?
- 🔍 O que a ciência mostra: pensar não depende de falar
- 👶 Bebês como prova viva: pensamento surge antes da fala
- 💬 Então por que linguagem parece tão ligada ao pensamento?
- 🤖 O próprio setor de IA está percebendo os limites dos LLMs
- 🔮 Mesmo que AGI exista um dia… ainda pode não ser verdadeiramente inteligente
- 🎯 O ponto central: humanos continuam no centro da inovação
🧠 Afinal, o que os LLMs realmente fazem?
Modelos como ChatGPT, Claude, Gemini e Meta AI têm uma característica central em comum: todos são modelos de linguagem em larga escala (LLMs).
Eles analisam montanhas de textos, encontram padrões entre palavras e tokens e aprendem a prever o que deve vir depois em uma frase.
Por mais impressionante que isso seja, é importante lembrar:
➡️ Eles modelam linguagem, não pensamento.
E a ciência cognitiva moderna é clara: o ser humano pensa independentemente da linguagem.
🔍 O que a ciência mostra: pensar não depende de falar
O artigo publicado na Nature, “Language is primarily a tool for communication rather than thought”, escrito por Evelina Fedorenko (MIT), Steven Piantadosi (UC Berkeley) e Edward Gibson (MIT), é um dos mais completos resumos sobre o tema.
Ele defende duas ideias fundamentais:
- Linguagem não gera pensamento.
- Linguagem evoluiu como ferramenta para comunicarmos pensamentos já existentes.
E as evidências são fortes:
✔️ 1. O cérebro usa redes diferentes para pensar e para usar linguagem
Pesquisas com fMRI mostram que resolver problemas, entender motivação humana ou raciocinar logicamente ativa áreas diferentes das dedicadas à linguagem.
✔️ 2. Pessoas que perderam a capacidade linguística continuam pensando
Pessoas com afasias severas conseguem:
- resolver problemas matemáticos,
- raciocinar causalmente,
- entender intenções,
- seguir instruções não verbais.
Ou seja: sem linguagem, ainda pensamos.
Agora tente o contrário:
🔹 Tire a linguagem de um LLM e restará… nada.
👶 Bebês como prova viva: pensamento surge antes da fala
Antes de falar qualquer palavra, bebês já:
- testam hipóteses,
- imitam,
- exploram o ambiente,
- entendem causalidade.
Como diz Alison Gopnik, bebês aprendem como pequenos cientistas.
Pensam antes de falar… literalmente.
💬 Então por que linguagem parece tão ligada ao pensamento?
Porque a linguagem é um superpoder humano.
Ela evoluiu para permitir trocarmos ideias com eficiência extraordinária e o que ampliou e acelerou a nossa cognição coletiva.
Mas ela não define nossa inteligência.
🤖 O próprio setor de IA está percebendo os limites dos LLMs
Até pesquisadores renomados do próprio campo estão revendo as apostas.
- Yann LeCun deixou a Meta para criar modelos que entendam o mundo físico, não só texto.
- Yoshua Bengio, Gary Marcus, Eric Schmidt e outros propuseram uma definição de AGI baseada em múltiplas habilidades cognitivas, não apenas linguagem.
Eles descrevem inteligência como um conjunto diverso de capacidades e memória, visão, raciocínio, planejamento, etc.
E acreditam que escalar modelos linguísticos não basta.
🔮 Mesmo que AGI exista um dia… ainda pode não ser verdadeiramente inteligente
Mesmo que criemos uma IA capaz de replicar um humano em cada eixo cognitivo, isso não garante saltos criativos ou científicos.
Einstein concebeu a relatividade antes das provas.
Grandes avanços vêm de insatisfação com paradigmas existentes e não só da recombinação de dados antigos.
LLMs, porém:
✔️ reorganizam conhecimento existente
✘ não têm motivo para desafiar paradigmas
✘ não criam novos vocabulários conceituais
Assim, podemos acabar com algo útil, mas limitado:
➡️ um grande repositório de senso comum e um “máquina de metáforas mortas”, como diria Richard Rorty.
🎯 O ponto central: humanos continuam no centro da inovação
A IA pode acelerar processos, resumir, organizar, recombinar.
Mas criar novos paradigmas, conceitos e teorias?
Isso exige ruptura, imaginação, coragem intelectual e elementos profundamente humanos.
A revolução da IA é real, mas a inteligência humana continua sendo mais do que linguagem.
E, portanto, mais do que padrões estatísticos.
