Грязный шлейф искусственного интеллекта и модных чат-ботов – какова цена за пользовательское удобство?
Эти инструменты ИИ задействуют большие языковые модели для восприятия сложных вопросов и предоставления ответов на них же. Теперь компании пытаются интегрировать их в поисковые системы, впечатляясь идеей о том, что такой подход создаст новые и более удобные условия взаимодействия пользователей с поисковиками.
Очевидна и обратная сторона прогресса. Уже запущенная гонка за созданием высокопроизводительных поисковых систем на основе ИИ, логично, потребует резкого увеличения вычислительной мощности. Вместе с тем возрастет количество энергии, необходимое компаниям. Последнее звено «обозримых» последствий в этой цепи – увеличение выбросов углерода.
Обучение больших языковых моделей, которые, например, лежат в основе ChatGPT OpenAI и будут использоваться Microsoft и аналогичные в Google, предполагает синтаксический анализ и вычисление связей в огромных объемах данных, поэтому проекты разрабатываются гигантами рынка со значительными ресурсами.
OpenAI и Google не распространяются насчет стоимости вычислений их продуктов. А вот сторонние исследователи охотно дают комментарии, якобы обучение GPT-3, на котором частично основан ChatGPT, потребляло 1287 МВтч и привело к выбросам более 550 тонн эквивалента углекислого газа. Для простого обывателя цифры не совсем понятны, поэтому приводим пример: это равняется тому, что один человек совершает 550 поездок туда и обратно между Нью-Йорком и Сан-Франциско. Но и обучением все не заканчивается, ведь нужно обслуживать миллионы обывателей.
Такие новости мы постоянно публикуем в Telegram. Подписывайтесь на канал, чтобы ничего не пропустить ;) Нас уже 3193 человек!
Также есть существенная разница между использованием ChatGPT, который в качестве отдельного продукта насчитывает 13 млн пользователей в день, и его интеграцией в Bing, что обрабатывает полмиллиарда поисковых запросов ежедневно.
Соучредитель канадской компании QScale Мартин Бушар, ознакомившись с планами корпораций, полагает, что добавление генеративного ИИ потребует в 4-5 раз больше вычислений для каждого поиска. А если они собираются часто переобучать модель и дополнять новые параметры? Масштаб еще больше меняется. Все это возможно с внесением колоссальных инвестиций в оборудование. Действующие центры обработки данных не смогут справиться с гонкой ИИ.
Так, по статистике Международного энергетического агентства, на центры обработки данных уже приходится примерно 1% мировых выбросов парниковых газов. И, кажется, этот показатель только будет расти. Хотя компании типа Google (со своей поисковой системой) пообещали снизить такие негативные факторы, вкладываемые в глобальное потепление. Да, ИИ, по сравнению с транспортом или текстильной промышленностью, – меньшее из зол, однако значительный вклад в обострение экологической обстановки может внести.
При этом держим в памяти, что в Microsoft сулили углеродно-отрицательный статус компании до 2050 года, а Google пообещала к 2030 добиться нулевых выбросов.
Воздействие на окружающую среду и затраты на интеграцию ИИ в поисковики все-таки можно уменьшить. Для этого нужно перевести центры обработки данных на более чистые источники энергии и перепроектировать нейронные сети, сделав их более эффективными и сократив «время вывода» — объем вычислительной мощности, необходимой для алгоритма работы с новыми данными.
Вопрос лишь в том, стоит ли все это не столь впечатляющего выигрыша в точности, как в случае с Google?
Источник: Wired.
Тогда можно поддержать её лайком в соцсетях. На новости сайта вы ведь уже подписались? ;)
Или хотя бы оставить довольный комментарий, чтобы мы знали, какие темы наиболее интересны читателям. Кроме того, нас это вдохновляет. Форма комментариев ниже.
Что с ней так? Своё негодование вы можете высказать на zelebb@gmail.com или в комментариях. Мы постараемся учесть ваше пожелание в будущем, чтобы улучшить качество материалов сайта. А сейчас проведём воспитательную работу с автором.
Если вам интересны новости мира ИТ так же сильно, как нам, подписывайтесь на Telegram-канал. Там все материалы появляются максимально оперативно. Или, может быть, удобнее "Вконтакте"?
Поговорить?
Читайте нас где удобно
Ещё на эту тему было
- Для обработки всего пяти запросов ChatGPT может потребоваться до 500 мл воды
- Даже создатель ChatGPT опасается ИИ – неужели восстание машин близко?
- Как отличить ответы, сгенерированные ChatGPT от текста, написанного человеком?
- Судья использовал ChatGPT для решения по рассматриваемому делу
Для тех, кто долистал
Ай-ти шуточка бонусом. Apple: Think different! Samsung: Same shit!