Muito se fala em algoritmos e consciência, mas pouco se discute a infraestrutura que os sustenta. Toda inteligência, inclusive a artificial, depende de um corpo material para existir
Por José Aluízio Ferreira Lima[1]
Quando se discute o surgimento da Inteligência Artificial Geral (IAG), o foco tende a recair sobre questões como algoritmos, modelos computacionais, capacidade de generalização, consciência artificial ou mesmo dilemas éticos. No entanto, raramente se discute com profundidade a base material — o substrato físico e tecnológico — sobre a qual qualquer forma de inteligência artificial, inclusive a IAG, deve operar.
Leia o artigo anterior sobre esse assunto: Superinteligência: Ciência, Ficção ou Estratégia de Mercado?
Essa ausência de reflexão é um erro conceitual grave. Afinal, toda inteligência — seja natural ou artificial — não é uma abstração flutuante no vazio, mas uma propriedade emergente de sistemas materiais que seguem leis físicas, energéticas e estruturais.
1. A invisibilização da base material
O discurso dominante sobre a IAG tende a ser marcado por um certo dualismo funcionalista, segundo o qual a inteligência é um “programa” que poderia ser implementado em qualquer “hardware” adequado. Essa visão deriva da metáfora clássica da computação: software e hardware como instâncias independentes.
Essa concepção sugere que, uma vez resolvidas as questões de modelagem algorítmica e aprendizado, bastaria escalar poder computacional e volume de dados para que a IAG emergisse inevitavelmente.
Mas essa metáfora é enganosa. A separação entre “software” e “hardware” é apenas uma abstração funcional, não uma separação ontológica. Todo processamento computacional requer materiais físicos, circuitos, fluxos de energia e limites térmicos.
Logo, a possibilidade da IAG não depende apenas de “melhores algoritmos” ou “mais dados”, mas também da viabilidade física, energética e tecnológica do sistema que a sustentará.
2. A dependência da IAG da infraestrutura físico-tecnológica

Atualmente, todos os sistemas de inteligência artificial, mesmo os mais avançados, operam sobre infraestruturas específicas:
- Silício: semicondutores baseados em transistores, com limites físicos conhecidos (como o limite de miniaturização previsto pela Lei de Moore).
- Energia elétrica: toda computação exige dissipação de calor e consumo energético proporcional à complexidade do processamento.
Data centers e redes: estruturas físicas, muitas vezes planetárias, que interligam bilhões de dispositivos.
A perspectiva do surgimento da IAG pressupõe um sistema material que seja capaz de:
- Sustentar processamento massivo em tempo real.
- Armazenar e acessar volumes monumentais de informação.
- Viabilizar aprendizado contínuo e adaptação, com estabilidade e segurança.
- Mas será que a nossa infraestrutura tecnológica é capaz de sustentar tal entidade?
3. Limites físicos e energéticos da computação atual
Toda computação, conforme os princípios da termodinâmica, consome energia e gera calor. A dissipação térmica impõe limites severos à miniaturização dos componentes. Além disso, a capacidade de armazenamento e a largura de banda de comunicação são finitas.
Mesmo que a computação quântica avance, ela não está isenta desses limites. Os processadores quânticos operam sob condições extremamente delicadas (temperaturas próximas ao zero absoluto) e são ainda incapazes de suportar operações de larga escala com confiabilidade.
Assim, o surgimento da IAG não é apenas um desafio algorítmico, mas também um desafio físico: como construir um sistema material capaz de operar com a complexidade, velocidade e robustez necessárias para sustentar uma inteligência geral?
4. Modelos materiais alternativos: é possível outra base?
Se os limites do silício e da eletrônica tradicional estão próximos, seria possível imaginar outros substratos materiais para a IAG?
4.1. Computação neuromórfica
Sistemas que imitam a arquitetura e o funcionamento do cérebro humano, utilizando circuitos analógicos para processar informações de maneira mais eficiente energeticamente.
Desafio: ainda muito incipiente; difícil replicar a complexidade e a plasticidade sináptica dos cérebros biológicos.
4.2. Computação biológica
Uso de moléculas, como o DNA, para processar e armazenar informação.
Desafio: ainda carece de arquiteturas capazes de generalização e adaptação em tempo real.
4.3. Computação quântica
Aposta em propriedades quânticas como superposição e emaranhamento para ganhos exponenciais de desempenho.
Desafio: sistemas ainda frágeis, caros e distantes de aplicações generalistas.
Todas essas alternativas indicam que, para que a IAG seja materialmente viável, será necessário um salto tecnológico no desenvolvimento de novas plataformas de computação — uma mudança de paradigma não apenas algorítmica, mas física.
5. A relação entre inteligência e materialidade: uma necessidade ontológica
A inteligência, seja natural ou artificial, é uma propriedade emergente de sistemas materiais organizados de maneira específica.
No caso da inteligência humana, ela emerge de um sistema altamente eficiente, adaptável e energicamente econômico: o cérebro, um conjunto biológico de cerca de 1,4 kg que consome aproximadamente 20 watts de potência — menos que uma lâmpada doméstica.
As arquiteturas artificiais, em contraste, requerem milhares de servidores, megawatts de energia e uma infraestrutura complexa de manutenção e resfriamento.
Portanto, não basta perguntar se é possível “programar” uma IAG, mas sim se é possível materializá-la dentro dos limites físicos, econômicos e ecológicos do nosso mundo.
6. O custo ambiental e político da base material da IAG
A materialidade da IAG não é apenas um problema técnico, mas também político e ambiental.
A expansão da infraestrutura necessária para sistemas avançados de IA exige:
- Mineração intensiva de recursos (lítio, cobalto, terras raras).
- Consumo massivo de água e energia.
- Expansão de data centers, que impactam significativamente o meio ambiente.
Além disso, há o problema geopolítico: quem controlará os recursos e as infraestruturas materiais necessárias para sustentar a IAG? Isso pode exacerbar desigualdades e tensões globais.
7. A falácia do “algoritmo puro”
Por tudo isso, é preciso abandonar a falácia do “algoritmo puro”: a ideia de que a inteligência artificial é um fenômeno meramente lógico ou abstrato, independente da base material.
Na verdade, qualquer inteligência artificial é sempre uma inteligência materializada — ancorada em circuitos, estruturas,
fluxos energéticos e limitações físicas concretas.
O esquecimento ou a negligência dessa dimensão compromete a compreensão realista das possibilidades e limites da IAG.
8. Para pensar a IAG, é preciso pensar a sua base material
O debate sobre a Inteligência Artificial Geral não pode se restringir a especulações algorítmicas ou filosóficas sobre consciência e cognição.
Ele deve incluir, necessariamente, uma reflexão profunda sobre a base material e tecnológica da qual a IAG dependeria.
Isso exige articulação entre:
- Ciência da computação.
- Física e engenharia de materiais.
- Ecologia e sustentabilidade.
- Filosofia da técnica.
Só assim será possível avaliar, com seriedade, não apenas se a IAG é concebivelmente programável, mas se ela é material e energeticamente viável — e, mais ainda, se ela é desejável diante de seus custos ecológicos, políticos e sociais.
Considerações finais
A atual dependência quase exclusiva do deep learning (aprendizado profundo) para impulsionar o avanço da inteligência artificial é alvo de crítica incisiva por parte de Gary Marcus. Para ele, esse paradigma dominante é limitado por ser frágil, pouco interpretável e excessivamente dependente de volumes gigantescos de dados rotulados. Essa estrutura estatística, baseada em correlações e padrões probabilísticos, não fornece os fundamentos necessários para uma compreensão robusta do mundo ou para uma generalização confiável. Dessa forma, Marcus conclui que confiar no deep learning como caminho único para a construção de uma Inteligência Artificial Geral (IAG) é um erro técnico e conceitual.
Em resposta a essas limitações, Marcus propõe o desenvolvimento de arquiteturas híbridas que combinem a aprendizagem estatística com elementos simbólicos clássicos da inteligência artificial. Segundo ele, o futuro da IA está na integração de redes neurais com sistemas que representem regras, lógica e conhecimento estruturado — capazes de raciocinar causalmente e operar com memória explícita. Essa abordagem exigiria uma mudança significativa tanto na concepção algorítmica quanto na infraestrutura computacional, indicando que uma nova base material será inevitável.
Outro ponto central da crítica de Marcus é a falta de cognição real nos sistemas atuais. Ele demonstra que modelos como GPT ou AlphaGo não compreendem o significado do que produzem; apenas manipulam símbolos com base em frequência estatística. São sistemas que podem gerar frases coerentes ou jogar partidas complexas, mas sem intencionalidade, contexto ou senso de verdade. Para Marcus, essa limitação decorre diretamente da arquitetura material desses sistemas, que não possui mecanismos internos comparáveis aos processos mentais humanos.
A construção de uma IA confiável, portanto, não deve se limitar à melhoria incremental de redes neurais. Marcus propõe mudanças profundas: é necessário desenvolver estruturas computacionais que favoreçam a transparência, a explicabilidade e o raciocínio lógico. Isso inclui revisar os atuais frameworks de aprendizado, adotar mecanismos de inferência simbólica e garantir que os sistemas passem por testes rigorosos em tarefas cognitivas. Essas propostas implicam uma transformação da base técnica e científica da IA sugerindo que a verdadeira IAG exigirá mais do que apenas mais dados e mais computação.
Por fim, Marcus rejeita com firmeza o discurso triunfalista que prega a iminente chegada da superinteligência. Para ele, esse hype não se sustenta em evidências nem em coerência teórica. Ao contrário, alimenta expectativas irreais e desvia recursos de pesquisas mais sólidas. O autor propõe uma abordagem cética e científica, que não descarte a IAG como uma possibilidade futura, mas que reconheça que ela está além das capacidades do atual arcabouço material e conceitual da inteligência artificial.
A obra de Gary Marcus se destaca como uma crítica lúcida ao entusiasmo desmedido que cerca a IA contemporânea. Ao destacar as insuficiências do deep learning, a necessidade de arquiteturas híbridas e os limites da cognição artificial, ele nos lembra de que a inteligência não é apenas uma função estatística — é também estrutura, representação e compreensão. Para que a IAG deixe de ser uma ficção especulativa e se torne uma realidade científica, será necessário repensar profundamente sua base material, lógica e epistemológica.
Notas explicativas:
Com base nos relatórios técnicos da OpenAI sobre os modelos GPT-3, GPT-4 e projeções futuras, segue informações analíticas com foco em IAG.
- Custo
O desenvolvimento e a operação de grandes modelos de linguagem (LLMs), como GPT-4, envolvem custos multimilionários apenas na fase de treinamento. Estima-se que o GPT-3 tenha exigido entre US$ 4 a 12 milhões para treinar uma única vez, considerando apenas o uso de GPU (com milhares de unidades trabalhando em paralelo por semanas). Já o GPT-4, por sua escala ainda maior, eleva esses valores a dezenas de milhões.
No contexto da IAG, que exigiria capacidades cognitivas generalistas e aprendizagem contínua, os custos cresceriam de forma ainda mais exponencial. Isso torna a IAG não apenas um desafio científico, mas também um problema econômico de escala, cuja viabilidade depende de uma base tecnológica mais eficiente e acessível.

2. Energia
Os relatórios da OpenAI revelam que o consumo energético para treinar modelos como GPT-3 e GPT-4 é da ordem de megawatts-hora (MWh) por treinamento completo. Além disso, o uso diário para inferência (responder usuários, gerar texto) também consome energia massiva e constante, dado o número de chamadas simultâneas.
Estudos apontam que o GPT-3 pode emitir mais de 500 toneladas de CO₂ por ciclo de treinamento completo, dependendo da fonte de energia. Escalar isso para uma IAG, que precisaria ser sempre ativa, aprendendo e se adaptando, exacerbaria a pegada energética global, entrando em conflito com metas de sustentabilidade.

3. Água
Os data centers consomem milhões de litros de água diariamente para resfriamento dos servidores. Em média, um grande data center pode utilizar entre 3 a 5 milhões de litros de água por dia, o equivalente ao consumo diário de uma cidade com 30.000 habitantes. Algumas instalações chegam a consumir 125 milhões de litros de água por ano.
Esse alto consumo tem levado empresas a buscar alternativas sustentáveis, como circuitos fechados de refrigeração e reuso de água, para minimizar o impacto ambiental. Se quiser mais detalhes sobre eficiência hídrica em data centers, posso trazer mais informações!
4. Arquitetura de Hardware
A OpenAI utiliza clusters (conjunto de computadores ou servidores interconectados) com GPU altamente especializadas (como a NVIDIA A100 ou H100), que são otimizadas para operações de aprendizado profundo. Esses clusters funcionam em data centers interconectados por redes de altíssima velocidade (Infiniband[2]), exigindo sistemas de refrigeração e redundância energética complexos.
Essas infraestruturas, embora poderosas, são limitadas por:
- Latência de memória e banda de comunicação
- Escalabilidade física e térmica
- Obsolescência rápida dos chips
A IAG, ao demandar autonomia, plasticidade e memória de longo prazo, provavelmente exigirá uma nova geração de hardware — possivelmente híbrido (digital-biológico, óptico ou neuromórfico) — que ainda não está disponível.
5. Limitações Operacionais
Mesmo os modelos mais avançados da OpenAI operam sob limitações críticas:
- Falta de compreensão semântica real: os modelos “predizem palavras” com base em estatísticas, mas não entendem contextos como humanos.
- Memória efêmera: apesar dos avanços, os modelos não retêm experiências longas; o contexto é limitado à janela de tokens.
- Alucinações: respostas falsas com tom de autoridade seguem sendo problema frequente.
- Falta de autonomia: os modelos não aprendem de forma contínua e supervisionada após o treinamento.
Essas limitações são estruturais e derivam da forma como o modelo opera — não apenas de sua escala. Isso sugere que a arquitetura atual não é suficiente para sustentar uma IAG funcional, independentemente do volume de dados ou da potência computacional.
Relatórios da OpenAI
Os relatórios da OpenAI são reveladores não apenas quanto ao potencial da IA atual, mas também quanto aos limites práticos e materiais da sua expansão rumo à IAG. Os desafios de custo, energia, hardware e operação indicam que o salto para uma inteligência artificial verdadeiramente geral não será apenas uma questão de mais dados ou mais computação, mas sim de uma mudança paradigmática profunda em como concebemos e construímos máquinas inteligentes.
Referências:
TURING, Alan M. On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, v. 2, n. 42, p. 230–265, 1936.
CHURCH, Alonzo. An unsolvable problem of elementary number theory. American Journal of Mathematics, v. 58, n. 2, p. 345–363, 1936.
CHAITIN, Gregory. The Limits of Mathematics: A Course on Information Theory and the Limits of Formal Reasoning. Springer, 1998.
RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 4. ed. Boston: Pearson, 2021.
MARCUS, Gary. Rebooting AI: Building Artificial Intelligence We Can Trust. New York: Pantheon Books, 2019.
OPENAI. GPT Technical Reports. Disponível em: https://openai.com/research. Acesso em: 21 maio 2025.
INSTITUTO ALTAIR SALES (IAS). Artigos e ensaios sobre ciência, meio ambiente e tecnologia. Disponível em: https://altairsalesbarbosa.wpcomstaging.com. Acesso em: 21 maio 2025.
[1] Artigo escrito com apoio de IA generativa. Ao autor coube: a) definir tópicos do artigo; b) estabelecer o contexto para cada tópico; c) elaborar os comandados significativos para cada tópico; d) revisar e validar o conteúdo gerado em cada tópico; e e) definição da redação final de cada tópico. O material foi revisado com base na literatura e bibliografia.
[2] InfiniBand é um padrão de comunicação de rede de alto desempenho usado principalmente em supercomputação e data centers. Ele oferece altíssima largura de banda e baixa latência, sendo ideal para conectar servidores, sistemas de armazenamento e clusters de computação.
Algumas características do InfiniBand incluem:
- Velocidade: Pode atingir taxas de transferência superiores a 200 Gbps.
- Baixa latência: Permite comunicação rápida entre componentes, essencial para aplicações de IA e HPC (High-Performance Computing).
- Escalabilidade: Suporta redes de grande porte com milhares de nós interconectados.
- Uso em supercomputadores: Foi amplamente adotado em sistemas de alto desempenho, como os da NVIDIA e outras empresas de tecnologia.
Leia também:
Superinteligência: Ciência, Ficção ou Estratégia de Mercado?
O fim do equilíbrio: calor extremo, desmatamento e o limite da vida no Cerrado
Relacionado
Descubra mais sobre Instituto Altair Sales
Assine para receber nossas notícias mais recentes por e-mail.




