ИИ vs изменения климата
По данным Международного энергетического агентства
2–3% глобальных выбросов парниковых газов приходится на крупные компании, которые развивают свои модели нейросетей, например, GPT от OpenAI или Bard от Google.

Исследователи оценивают, что
для обучения большой языковой модели, например, GPT-4, может потребоваться приблизительно 300 тонн CO2. Согласно другим оценкам, для создания одного изображения с использованием инструментов генерации изображений искусственного интеллекта, таких как Dall-E или Stable Diffusion, требуется столько же энергии, сколько для зарядки смартфона.
По последним исследованиям, только для GPT-3, вероятно, было использовано 700 301 литров воды в процессе обучения.
Само руководство OpenAI отмечает, что без развития альтернативных источников энергии невозможно будет развивать нейросети, и считает, что будущее
за ядерным синтезом.
Подписаться на Сортировочную
Public date:Wed, 24 Jan 2024 16:10:14 +0000