«Искусственный интеллект задает основной вектор нашей стратегии»
6 декабря на «Дне инвестора» Сбер представил новую стратегию до 2026 года. В ней компания сделала упор на развитие генеративного искусственного интеллекта, а также внедрение таких технологий в собственные продукты. Старший вице-президент, СТО, руководитель блока «Технологии» Сбербанка Андрей Белевцев рассказал «Деньгам» о том, каким он видит будущее AI, о мировой гонке вычислительных мощностей и нейроинтерфейсах.
— Андрей, 6 декабря Сбер презентовал собственную стратегию до 2026 года, большое место в ней компания уделила новым продуктам на основе генеративного искусственного интеллекта, а также потенциалу внедрения персонального AI-помощника для клиента. Расскажите, какие технологические аспекты вы считаете ключевыми в этом плане.
— Искусственный интеллект задает основной вектор нашей стратегии, так как мы уверены в том, что он будет очень быстро интегрироваться и внедряться во все сферы бизнеса. В этом есть две причины. Во-первых, LLM-модели будут ускоренно получать новые возможности, применимые практически в любой отрасли. Вторая причина в том, что внедрение компаниями продуктов на основе генеративного искусственного интеллекта куда проще, чем их разработка. Чтобы встроить такой продукт в рабочий процесс, не нужно обладать специальными знаниями, порог входа для пользователей минимален. Исходя из этого, мы видим для себя три ключевых вектора работы по этому направлению: развитие LLM-моделей, расширение облачной инфраструктуры, благодаря которой наши партнеры смогут внедрять искусственный интеллект в свои процессы с помощью интерфейса прикладного программирования (API), и третье — это упрощение непосредственно разработки приложений с использованием больших языковых моделей.
— В ноябре официальные лица OpenAI заявили о приостановке продаж подписки на ChatGPT из-за нехватки вычислительных мощностей. Это, на ваш взгляд, маркетинговый ход? Или интерес к подобным инструментам действительно растет опережающими темпами?
— Это заявление говорит об обостряющейся гонке мощностей, в которую оказались вовлечены крупнейшие технологические игроки, занятые разработками в области генеративного искусственного интеллекта. Прошлый год, когда был запущен ChatGPT, в этом плане можно назвать революционным. Да, за два года до этого существовал GPT-3 и у Сбера была своя версия GPT-3-модели (прим. RuGPT-3), но те модели не демонстрировали такого уровня понимания человека и не были такими полезными. Еще год назад мы не могли представить, что настолько продвинутая модель, способная поддерживать диалог с человеком, появится так быстро.
Что касается вычислительных мощностей — действительно, для обучения моделей задействуются большие вычислительные кластеры. И второй аспект, который мы часто упускаем из виду, заключается в том, что развитие прорывного продукта в этой области требует проведения экспериментов. То есть ты не просто ставишь одну версию модели на постоянное обучение, а параллельно проводишь определенное число экспериментов, связанных с новыми архитектурами, новыми версиями претрейна и так далее. Проще говоря, поисковое направление работы, R&D, также требует вычислительных мощностей. Таким образом, вычислительные мощности в этой области используются в трех направлениях — развитии имеющегося продукта, поисковых исследованиях и inference, то есть непосредственном применении модели.