banner
Lar / Notícias / À medida que a indústria de IA cresce, que impacto isso terá no meio ambiente?
Notícias

À medida que a indústria de IA cresce, que impacto isso terá no meio ambiente?

Jun 12, 2023Jun 12, 2023

As empresas de tecnologia permanecem em segredo sobre a quantidade de energia e água necessária para treinar seus programas e modelos complexos

Uma pergunta que o ChatGPT não consegue responder: quanta energia você consome?

"Como um modelo de linguagem de IA, não tenho presença física nem consumo energia diretamente", dirá, ou: "O consumo de energia associado às minhas operações está relacionado principalmente aos servidores e à infraestrutura usados ​​para hospedar e executar o modelo."

O Bardo do Google é ainda mais audacioso. "Minha pegada de carbono é zero", afirma. Questionado sobre a energia que é consumida na sua criação e treino, responde: “não é de conhecimento público”.

Os programas de IA podem parecer incorpóreos. Mas eles são alimentados por redes de servidores em centros de dados em todo o mundo, que exigem grandes quantidades de energia para alimentar e grandes volumes de água para manter a refrigeração.

Como os programas de IA são tão complexos, eles exigem mais energia do que outras formas de computação. Mas o problema é - é incrivelmente difícil definir exatamente quanto.

Enquanto competem para construir modelos de IA cada vez mais sofisticados, empresas como a OpenAI – que criou o ChatGPT – Google e Microsoft não divulgam quanta eletricidade e água são necessárias para treinar e executar seus modelos de IA, quais fontes de energia alimentam seus data centers , ou mesmo onde estão alguns de seus data centers.

A Meta, empresa controladora do Facebook, por exemplo, revelou no ano passado que estava construindo o que acreditava ser o supercomputador mais rápido do mundo, chamado AI Research SuperCluster (RSC). Mas não revelaria onde o supercomputador estava localizado ou como estava sendo alimentado.

Agora, enquanto a indústria de tecnologia corre para incorporar IA generativa em praticamente tudo – de e-mail e pesquisa a aplicativos de entrega de comida e serviços de saúde mental – especialistas e pesquisadores do setor alertam que o crescimento descontrolado da tecnologia pode ter um custo ambiental significativo.

“Esse uso exponencial de IA traz consigo a necessidade de mais e mais energia”, disse Sasha Luccioni, líder climática da empresa de IA Hugging Face. “E, no entanto, estamos vendo essa mudança de pessoas usando modelos de IA generativos apenas porque acham que deveriam, sem que a sustentabilidade seja levada em consideração”.

Luccioni é um dos poucos pesquisadores que tentaram avaliar as emissões geradas na criação de modelos específicos de IA.

Em um trabalho de pesquisa que ainda não foi revisado por pares, ela e seus co-autores calcularam a quantidade de energia usada para treinar o modelo de linguagem grande do próprio Hugging Face, Bloom, em um supercomputador; a energia usada para fabricar o hardware do supercomputador e manter sua infraestrutura; e a eletricidade usada para executar o programa depois de lançado. Eles descobriram que gerou cerca de 50 toneladas métricas de emissões de dióxido de carbono, o equivalente a cerca de 60 voos entre Londres e Nova York.

A pegada energética de Bloom é menor do que a de outros programas de IA generativa, estimam Luccioni e sua equipe, já que os supercomputadores de Bloom são alimentados por energia nuclear, que não produz emissões de carbono. Por outro lado, dados limitados publicamente disponíveis sugerem que cerca de 500 toneladas métricas de CO2 foram produzidas apenas no treinamento do modelo GPT3 do ChatGPT – o equivalente a mais de um milhão de milhas percorridas por carros movidos a gasolina, observaram os pesquisadores.

“Para o modelo mais recente do ChatGPT, GPT4, [OpenAI] não disse nada sobre quanto tempo foi treinado, onde foi treinado ou qualquer coisa sobre os dados que estão usando”, disse Luccioni. "Então, essencialmente, significa que é impossível estimar as emissões."

Enquanto isso, os novos modelos de IA estão ficando maiores – e consomem mais energia. Modelos maiores exigem o uso de unidades de processamento gráfico (GPUs) cada vez mais poderosas e levam mais tempo para treinar – consumindo mais recursos e energia, disse Luccioni.

Ainda mais obscura é a quantidade de água consumida na criação e uso de vários modelos de IA. Os data centers usam água em sistemas de resfriamento evaporativo para evitar o superaquecimento do equipamento. Um estudo não revisado por pares, liderado por pesquisadores da UC Riverside, estima que o treinamento do GPT3 nos data centers de última geração da Microsoft nos EUA poderia ter consumido 700.000 litros (184.920,45 galões) de água doce.