Общие затраты энергии на эту сферу никто не подсчитал – даже сами разработчики. Об этом узнали «Известия».
Читайте также:
Есть только самые приблизительные цифры. Так, тренировка модели GPT-3 от OpenAI в 2021 году потребовала 1,287 ГВт·ч. И это на пару порядков больше, чем раньше, если судить по числу параметров, на которых обучается программа: у GPT-3 их 175 млрд, тогда как у ее предшественника было всего 1,5 млрд.
Google, в свою очередь, тратит на разработку и поддержание ИИ от 10 до 15% своего общего потребления энергии, которое в 2021 году составляло 18,3 ТВт·ч. При этом не указано, какая доля приходится на дата-центры, без которых ИИ в современном виде работать не будет.
Так или иначе, на данный момент в каждом отдельном случае получаются довольно умеренные цифры, которые трудно сопоставить с майнингом. Но нужно учитывать, что это, во-первых, данные за позапрошлый год – с тех пор модели стали мощнее и требовательнее в части энергорасходов. Во-вторых, на ниве ИИ свои силы не пробует сейчас только ленивый и численность известных нейросетей уверенно догоняет число криптовалют.