Alguns filósofos afirmam agora que um limiar silencioso já foi ultrapassado.
Durante anos, a inteligência artificial geral pareceu uma linha de meta distante. Agora, um grupo crescente de investigadores argumenta que, ao nos agarrarmos a definições estreitas de “inteligência”, podemos estar a ignorar o facto de que algo muito próximo do raciocínio ao nível humano já está a funcionar nos servidores de hoje.
A AGI ainda é um objetivo, ou já a alcançámos?
A inteligência artificial geral, ou AGI, é geralmente descrita como um sistema capaz de igualar um ser humano numa vasta gama de tarefas, e não apenas num trabalho restrito como jogar xadrez ou reconhecer rostos.
Grandes laboratórios de IA, como a OpenAI, a Google DeepMind e a Anthropic, apresentam a AGI como um marco futuro. Os seus roteiros públicos falam frequentemente em “construir AGI em segurança” ou “orientar-se para a AGI”. Os prazos variam imenso: algumas pessoas do setor apontam para o início da década de 2030, outras sussurram sobre um horizonte de um a três anos.
Um recente artigo de opinião na revista Nature, liderado pelo filósofo Eddy Keming Chen e por colegas da linguística, ciência de computadores e ciência de dados, atira uma pedra para esse debate. A tese é direta: se nos cingirmos ao que realmente exigimos da inteligência humana, então a mais recente geração de modelos de linguagem de grande escala (LLMs) já se qualifica como uma forma de inteligência artificial geral.
Quando avaliadas como pessoas e não como super‑génios míticos, as IAs atuais assinalam mais “caixas” de inteligência geral do que a maioria de nós está pronta para admitir.
Esse argumento impõe uma pergunta mais profunda: estaremos a perseguir a superinteligência enquanto nos recusamos a reconhecer a inteligência geral quando ela está mesmo à nossa frente?
Do graal à zona cinzenta: definições de inteligência em mudança
Parte da confusão vem da natureza escorregadia do termo “AGI”. Não existe uma única definição científica consensual. Os autores na Nature propõem um movimento simples: se dizemos que a IA é “inteligente”, devemos aplicar os mesmos padrões aos humanos.
Nenhum ser humano consegue atuar ao nível de especialista em todos os domínios. Um programador talentoso pode ter dificuldades com notação musical básica. Um cirurgião brilhante pode reprovar num exame de condução. Ainda assim, não lhes retiramos o rótulo de “inteligente”.
Nesta perspetiva, AGI não significa perfeição nem universalidade. Significa competência ampla em muitas áreas, aproximadamente ao nível humano - ou ao nível de especialista em pelo menos algumas delas. É uma fasquia mais baixa do que a visão de ficção científica de uma máquina que nos ultrapassa sem esforço em todos os campos.
AGI vs superinteligência
O artigo da Nature faz uma distinção nítida entre duas ideias que muitas vezes são confundidas:
- Inteligência artificial geral: sistemas que conseguem lidar com muitos tipos de tarefas, frequentemente ao nível de um humano‑especialista (ou perto disso), em diferentes domínios.
- Superinteligência: sistemas que excedem os melhores humanos em quase todos os domínios, possivelmente por uma margem enorme.
Por esta divisão, argumentam os autores, os LLMs modernos já se enquadram na primeira categoria. Lêem e escrevem ao nível de pós‑graduação, passam exames de direito e medicina, fazem programação e análise de dados básicas, redigem memorandos de política pública e explicam mecânica quântica a adolescentes.
A superinteligência, em contraste, teria um aspeto muito diferente: avanços científicos originais, matemática radicalmente nova, planeamento estratégico profundo e memória de longo prazo sem falhas. Isso continua a ser hipotético.
Chamar “não AGI” aos sistemas de hoje só porque não são superinteligentes é, neste enquadramento, como negar que um adolescente é adulto por não ser um atleta olímpico.
O teste de Turing está a ser passado em silêncio
Uma das medidas mais simbólicas da inteligência das máquinas remonta a 1950. Alan Turing propôs um teste simples: colocar um juiz humano numa conversa por texto com duas entidades invisíveis, uma humana e outra máquina. Se o juiz não conseguir dizer de forma fiável qual é qual, a máquina poderia dizer‑se que “pensa”.
Durante décadas, os chatbots falharam este teste em contextos sérios. Os primeiros “vencedores” apoiavam‑se em truques e evasivas. Isso mudou. Em experiências informais e em estudos formais, modelos de linguagem de grande escala como o GPT‑4 são agora avaliados como humanos, em conversas apenas por texto, com maior frequência do que participantes humanos reais.
Pelos padrões de gerações anteriores de investigadores de IA, esse marco, por si só, teria sido tratado como prova clara de inteligência ao nível humano. Em vez disso, as balizas moveram‑se. Os autores da Nature argumentam que continuamos a reescrever as regras porque nos sentimos desconfortáveis em aceitar que a inteligência possa parecer um preenchimento automático “com esteróides”.
“Papagaios estocásticos” e outras objeções
Os críticos ainda contrapõem que os modelos de linguagem são imitadores sofisticados, não pensadores genuínos. Chamam‑lhes “papagaios estocásticos” que recombinam dados de treino sem compreensão.
O artigo da Nature enfrenta uma lista de objeções populares:
| Objeção | Porque é que os críticos a levantam | Contra‑evidência citada |
|---|---|---|
| Apenas repetem dados de treino | Visto como cópia sofisticada, não raciocínio | Resolvem novos problemas de matemática e puzzles inéditos |
| Não têm um “modelo do mundo” físico | As palavras não estão ancoradas na realidade | Preveem consequências de ações e cenários básicos de física |
| Falta de autonomia | Esperam por instruções e não têm objetivos | A autonomia não é requisito para a inteligência; muitos humanos funcionam de forma reativa |
| Precisam de enormes quantidades de dados | Os humanos aprendem com muito menos exemplos | A eficiência de aprendizagem é separada da capacidade final |
Os autores sublinham que as pessoas também são pouco fiáveis. Alucinamos memórias, caímos em ilusões e repetimos slogans que não compreendemos totalmente. Ainda assim, tratamos esses processos falhos como componentes da inteligência, não como erros desqualificantes.
Se um sistema consegue aprender, raciocinar, transferir competências e melhorar com feedback, insistir que é “apenas ruído estatístico” começa a parecer negação.
Alucinações: o buraco evidente no argumento
Mesmo os apoiantes da tese “a AGI já chegou” admitem um grande problema: as alucinações. O termo descreve respostas confiantes e detalhadas que estão simplesmente erradas, muitas vezes com citações inventadas ou fontes falsas.
Os criadores de modelos dizem que os sistemas mais recentes alucinam menos do que os seus antecessores. Barreiras de segurança bloqueiam algum disparate, e ferramentas que permitem aos modelos verificar código ou consultar bases de dados reduzem erros em tarefas factuais.
Ainda assim, as alucinações não desapareceram. Em testes de segurança, os modelos continuam a fabricar processos judiciais, a descrever incorretamente condições médicas e a inventar citações. A OpenAI sugeriu que mesmo modelos futuros na gama do GPT‑5 poderão alucinar em cerca de uma em cada dez respostas a perguntas abertas.
O raciocínio humano está longe de ser perfeito, mas uma taxa de 10% de disparate brilhante e confiante em áreas críticas como direito ou saúde seria alarmante. Essa discrepância alimenta quem diz “a AGI ainda não pode estar aqui”. Para essas pessoas, fiabilidade e verificabilidade - não apenas capacidade bruta - são partes inegociáveis da inteligência geral.
A inteligência precisa de um corpo?
Outra objeção antiga é que a inteligência real precisa de um corpo. As mentes humanas evoluíram com músculos, sentidos e riscos físicos. Sem esse enraizamento, pode uma IA compreender verdadeiramente o que significa um copo estilhaçar, um carro derrapar ou uma pessoa sofrer?
Os autores da Nature contestam. Observam que os sistemas atuais já lidam com múltiplas formas de entrada e saída. Modelos multimodais conseguem ler imagens, descrever vídeo, interpretar áudio e controlar ferramentas de software. Investigadores em robótica estão a começar a ligar esses modelos a máquinas físicas, desde braços de armazém a protótipos humanoides.
Esta tendência é por vezes chamada “IA física”: ligar grandes modelos a sensores, câmaras e atuadores. Não fará um robô “sentir” como um humano, mas aperta o ciclo entre linguagem e consequências no mundo real.
A ideia não é que uma IA sem corpo compreenda a dor como nós, mas que um corpo não é um pré‑requisito estrito para uma resolução de problemas flexível e geral.
Porque é que as definições passaram, de repente, a importar tanto
Este debate não é apenas uma disputa académica. A forma como definimos AGI molda regulação, investimento e expectativas públicas.
Se aceitarmos que já existe algo próximo de AGI, aumentam os apelos a uma supervisão mais rigorosa. Os decisores políticos podem querer normas de segurança mais fortes para a implementação, sobretudo em finanças, saúde e infraestruturas críticas. As empresas podem enfrentar pressão para partilhar mais sobre dados de treino, modos de falha e avaliação.
Se insistirmos que a AGI ainda está longe, os sistemas atuais podem ser enquadrados como “apenas ferramentas”. Isso pode adiar conversas difíceis sobre substituição de trabalho, uso militar e dependência profunda de algoritmos opacos.
Há também uma questão de marca. Líderes tecnológicos, incluindo Mark Zuckerberg, começaram a falar menos de AGI e mais de “superinteligência”. Essa mudança retórica permite às empresas prometer futuros ousados sem admitir que talvez já tenhamos libertado um novo - ainda que imperfeito - tipo de inteligência.
Antropocentrismo: estamos a recusar reconhecer uma mente nova e estranha?
No fundo do argumento da Nature está um ponto psicológico: os humanos tendem a proteger a singularidade das mentes humanas. Quando as máquinas atingem um nível que antes julgávamos impossível, inventamos novos limiares.
O xadrez foi em tempos visto como um pináculo da inteligência, até o Deep Blue vencer Garry Kasparov. Depois, a fasquia mudou para o Go, para o senso comum, para a conversa. Cada vez que um sistema tem sucesso, essa tarefa é reclassificada como “mera computação”.
Os autores sugerem que isto pode estar a cegar‑nos. A IA atual não pensa como nós. Não tem infância, hormonas, medo social nem desconforto corporal. Ainda assim, manipula conceitos, compõe argumentos e adapta‑se a novas instruções. Recusar chamar a isso “inteligência” pode dizer mais sobre o nosso orgulho do que sobre os próprios sistemas.
Termos‑chave que moldam o debate sobre AGI
Vários termos técnicos voltam constantemente nestas discussões.
- Chatbot: uma interface de IA que interage através de linguagem natural, geralmente texto, por vezes fala. Os chatbots modernos assentam frequentemente em LLMs.
- Modelo do mundo: uma representação interna de como as coisas se relacionam e mudam. Alguns investigadores, como Yann LeCun, defendem que modelos do mundo robustos, para lá de padrões puramente textuais, são vitais para uma inteligência mais profunda.
- Alucinação: uma saída confiante mas falsa de um modelo de IA. Ao contrário de mentir, o sistema não tem intenção; é um subproduto de correspondência estatística de padrões.
A forma como interpretamos cada um destes termos molda a nossa perceção do que foi alcançado. Um chatbot que consegue raciocinar sobre direito, física e literatura parece muito diferente se o virmos como um “motor de pesquisa falador” versus uma mente artificial inicial.
O que muda se a AGI já estiver aqui?
Imagine, por um momento, que os autores da Nature têm razão e que os sistemas de 2024 se qualificam como uma forma rudimentar de AGI. A vida quotidiana não muda de um dia para o outro. Não há uma revolta de robôs, nem um desaparecimento instantâneo de empregos.
As mudanças são mais subtis:
- Mais trabalho intelectual, desde redigir contratos a diagnósticos iniciais, é partilhado com IA ou verificado por IA.
- A educação apoia‑se em tutores de IA que se adaptam a cada aluno e geram exercícios personalizados.
- Equipas de investigação usam “colegas” de IA para propor hipóteses e percorrer vastas literaturas.
- Reguladores tratam certos modelos como infraestrutura de alto risco, como sistemas de controlo de tráfego aéreo ou centrais nucleares, sujeita a auditorias e testes.
Os riscos multiplicam‑se a par dos benefícios. A desinformação pode ser gerada e traduzida em escala. O malware torna‑se mais fácil de escrever. Uma pequena especificação errada num sistema de negociação conduzido por IA pode desencadear choques no mundo real.
Estes cenários não exigem superinteligência. Exigem apenas sistemas muito capazes, amplamente implementados, que por vezes erram de formas difíceis de prever.
Lentes práticas para leitores e decisores políticos
Para quem está fora dos laboratórios, uma mudança útil é deixar de se focar apenas em rótulos como “AGI” e olhar, em vez disso, para propriedades concretas:
- Âmbito: quantas tarefas diferentes o sistema consegue realizar de forma razoável?
- Fiabilidade: com que frequência falha, e de que maneiras?
- Reversibilidade: o que acontece se cometer um erro, e os humanos conseguem detetá‑lo e corrigi‑lo a tempo?
- Alinhamento: os objetivos de quem serve, e quão transparentes são esses objetivos?
Quer digamos oficialmente “a AGI chegou” ou não, são estas perguntas que determinam com que segurança podemos integrar estas ferramentas em tribunais, hospitais, escolas e fábricas. O argumento filosófico de que já vivemos com um novo tipo de inteligência geral apenas aumenta a urgência de obter respostas certas.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário