Um sistema de inteligência artificial (IA) generativa pode consumir até 33 vezes mais energia do que máquinas que executam software para tarefas específicas. As informações são de um estudo realizado pela Dra. Sasha Luccioni, da Hugging Face, empresa especializada em aprendizado de máquina.
Muitos sistemas de IA generativa são treinados com vastos estoques de informações para produzirem respostas para diversos tipos de consultas. Cada consulta resulta na criação de uma informação do zero, o que demanda muito poder computacional. E todo esse processo é extremamente ineficiente, segundo a Dra. Luccioni.
Somente no Reino Unido, o consumo de energia poderá crescer seis vezes em apenas 10 anos, por causa dos data centers de IA.Fonte: GettyImages
Vale ressaltar que, atualmente, a maioria desse processamento de informações não é realizado em nossos computadores, mas em gigantescos data centers dedicados a tarefas de IA generativa, entre outras.
Em 2022, os data centers consumiram 460 terawatts/hora de eletricidade globalmente. A Agência Internacional de Energia (AIE, na sigla em inglês) espera que este número duplique em apenas quatro anos.
É difícil prever quanto de energia a IA vai consumir
Atualmente, alguns especialistas se alinham com a preocupação da Dra. Luccioni, alertando sobre uma iminente explosão no consumo de energia pelos data centers de IA. Só no Reino Unido, esse consumo poderá crescer seis vezes em apenas 10 anos, de acordo com a National Grid.
No entanto, há especialistas da área de tecnologia que amenizam o problema, já que, segundo eles, a própria evolução dos chips será responsável por manter o consumo de energia em patamares aceitáveis.
Alguns especialistas dizem que a eficiência energética dos novos chips de IA serão suficientes para amenizar o consumo de energia.Fonte: GettyImages
Há diversos fatores que podem influenciar na demanda global por energia elétrica para o processamento de inteligência artificial. Vários fabricantes de chips, como Intel, AMD, Apple e Qualcomm, já estão lançando componentes capazes de processar tarefas de IA diretamente nos PCs dos usuários, o que alivia a demanda pelo processamento na nuvem.
Neste caso, o consumo de energia passa dos data centers para as residências dos usuários. Resta saber até onde a eficiência energética de chips corporativos e para usuários finais poderão conter o crescimento nocivo do consumo de energia.
Enquanto isso, a Dra. Luccioni está trabalhando em um projeto para desenvolver classificações energéticas para IA, a fim de facilitar a adoção de sistemas mais eficientes.