Как и зачем исследовать логику нейросетей

N+1Hi-Tech

Внимание, черный ящик. Как и зачем исследовать логику нейросетей

Как и зачем исследовать логику нейросетей

Григорий Копиев

Прогресс в машинном обучении, достигнутый за последнее десятилетие, подарил нам как множество новых возможностей, так и неочевидные проблемы: модели машинного обучения стали настолько сложными и большими, что понять логику их действий все труднее. Вместе с Yandex Research, который проводит исследования машинного обучения мирового уровня, рассказываем, как разработчики изучают современные ML-алгоритмы — и почему это стоит делать, даже если они работают хорошо.

Начало обучения

Нейросети на слуху последние несколько лет. Может показаться, что это новый тип алгоритмов. Отчасти так оно и есть: многие архитектуры нейросетей, успевшие стать классическими, появились лишь несколько лет назад. Но идея повторить в машине принцип работы нейронных сетей была реализована на самой заре машинного обучения.

В конце 1950-х годов Фрэнк Розенблатт описал и реализовал «в железе» перцептрон — простейшую архитектуру искусственных нейросетей, которая заложила основу для современных нейросетей (а многослойные перцептроны широко применяются до сих пор).

Розенблатт показал работу перцептрона, обучив его распознавать знаки и символы, что для 1958 года было серьезным успехом. Но, пожалуй, главное достижение и следствие этого заключалось в укреплении идеи, что для создания машины инженеру не нужно вручную прописывать набор правил — они могут родиться сами в виде весов во время обучения.

В дальнейшем ученые придумывали все новые и новые архитектуры моделей машинного обучения, причем не только нейросетевые. И хотя математические операции внутри моделей по отдельности оставались понятными, их количество и взаимное влияние усложняло анализ работы алгоритмов.

Старший исследователь Yandex Research Андрей Малинин объясняет: «Представьте огромный часовой механизм размером с небоскреб, внутри которого крутятся миллиарды шестеренок размером в ноготь — все красиво крутится, но ничего не понятно. Мы можем посмотреть на какой-то локальный кусочек с парой шестеренок, и вроде ясно, как в нем все работает, но неясно, как это встраивается в механизм в целом».

Современная эра

В 2012 году в развитии машинного обучения наметился прорыв, связанный с нейросетью AlexNet. Это сверточная нейросеть для классификации изображений из датасета ImageNet, в котором содержится более 15 миллионов изображений объектов, разбитых на 22 тысячи категорий. Задача бенчмарка ImageNet — определить класс объекта на фотографии. AlexNet удалось выиграть соревнования ImageNet 2012 года, причем с большим отрывом от ближайшего конкурента: частота ошибок при определении пяти самых вероятных объектов составила 15,3 процента против 26,2 у алгоритма со второго места.

Такой успех можно объяснить несколькими причинами. Во-первых, разработчики улучшили архитектуру нейросети, использовав в качестве функции активации редкую для того времени и повсеместно применяемую сейчас ReLU. Во-вторых, хотя это была большая нейросеть, состоявшая из 650 тысяч нейронов и имевшая 60 миллионов параметров, разработчики нашли способ ускорить ее обучение. Они сумели распараллелить обучение сети на два графических процессора. Это была не первая работа, в которой нейросети предлагали обучать на графических процессорах, но, вероятно, первый заметный пример, который показал другим исследователям, что ограничения по вычислительной мощности, сдерживавшие развитие этой области, можно обойти. А значит, размеры моделей и обучающих датасетов можно смело увеличивать.

Спустя шесть лет исследователи из OpenAI проанализировали ключевые работы в области нейросетей и показали, что именно с AlexNet в 2012 году начался рост затрачиваемой на обучение вычислительной мощности. Если раньше она удваивалась каждые два года, следуя закону Мура, то с 2012 года удвоение происходило уже каждые 3–4 месяца. Благодаря такой четкой временной границе OpenAI предложила называть период после 2012 года «современной эрой».

Рост объема вычислений, проводимых при обучении моделей машинного обучения. На графике можно увидеть резкую смену тренда в 2012 году — начало «современной эры». OpenAI

Вместе с увеличением размера нейросетей менялись и подходы к обучению. Стало набирать популярность обучение без учителя на неразмеченных данных.

Хороший пример такого подхода — нейросети GPT, разработанные в OpenAI. Это модели генерации текста, задача которых сводится к предсказанию следующего слова в предложении. Это позволяет писать большие тексты, которые выглядят как результат работы человека, а не машины. Разработчики GPT решили уйти от обучения на ограниченных датасетах с размеченными текстами к самообучению на гигантском объеме самых разных текстов из интернета: GPT-3 обучили на 570 гигабайт текстов. Это позволило модели выучить структуру языка, после чего ее можно быстро дообучить для конкретной задачи, например генерации стихов в стиле любимого поэта, показав всего несколько примеров, а не собирая новый большой датасет.

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Попасть в сети Попасть в сети

Пять способов потерять деньги, продавая вещи в Интернете

Лиза
Почему дети так тяжело переносят долгие поездки? И можно ли облегчить им дальнюю дорогу? Почему дети так тяжело переносят долгие поездки? И можно ли облегчить им дальнюю дорогу?

Почему дети все время спрашивают "Когда мы приедем?"

ТехИнсайдер
11 способов становиться немного умнее каждый день 11 способов становиться немного умнее каждый день

Интеллект, как и тело, требует правильного питания и регулярных тренировок

Psychologies
«16 эссе об истории искусства». Как описывать и анализировать предметы искусства и культуры «16 эссе об истории искусства». Как описывать и анализировать предметы искусства и культуры

Глава из «16 эссе об истории искусства» — как маски стали музейными экспонатами

N+1
8 упражнений на растяжку, которые облегчат боль в спине 8 упражнений на растяжку, которые облегчат боль в спине

Наш спасительный фитнес для вашей спины

Лиза
Вот что будет с телом, если каждый день стоять в планке Вот что будет с телом, если каждый день стоять в планке

Действительно ли планка — идеальное упражнение?

ТехИнсайдер
Как пить, чтобы похудеть Как пить, чтобы похудеть

Влияет ли употребление алкоголя на набор веса?

Maxim
Синдром одомашнивания: отрывок из книги «Парадокс добродетели» Ричарда Рэнгема Синдром одомашнивания: отрывок из книги «Парадокс добродетели» Ричарда Рэнгема

Почему людям свойственны одновременно доброта и жестокость?

СНОБ
Маневрируем в позе «зю»: разбираем главные стереотипы о балансе карьеры и материнства Маневрируем в позе «зю»: разбираем главные стереотипы о балансе карьеры и материнства

Тема совмещения материнства и карьеры давно набила оскомину

Forbes
Как часто нужно стирать подушки: совет, который мы привыкли игнорировать Как часто нужно стирать подушки: совет, который мы привыкли игнорировать

Как правильно поддерживать гигиену подушек?

ТехИнсайдер
Неожиданно дорогие советские вещи, которые можно найти у себя на чердаке Неожиданно дорогие советские вещи, которые можно найти у себя на чердаке

Шанс найти или случайно добыть нечто стоящее совсем не иллюзорен

Maxim
Сойти за своего: как адаптироваться к жизни в другой стране Сойти за своего: как адаптироваться к жизни в другой стране

Как интегрироваться в новое общество и преодолеть культурные барьеры?

Psychologies
«Вещная жизнь: материальность позднего социализма». «Вещная жизнь: материальность позднего социализма».

Отрывок из книги «Вещная жизнь» — о том, как железо в СССР было связано с силой

N+1
Йоханово детство Йоханово детство

«Все ненавидят Йохана»: скандинавская вариация «Форреста Гампа»

Weekend
Одержимость контролем и нарциссизм основательницы погубили один из самых многообещающих стартапов Азии — история Zilingo Одержимость контролем и нарциссизм основательницы погубили один из самых многообещающих стартапов Азии — история Zilingo

Как стартап-маркетплейс Zilingo взлетел и рухнул

VC.RU
«Южному парку» 25 лет: что мы поняли за эти годы «Южному парку» 25 лет: что мы поняли за эти годы

«Южный парк»: можно ли его смотреть детям?

Psychologies
Самые бюджетные бренды, в которые одеваются современные королевы и принцессы Самые бюджетные бренды, в которые одеваются современные королевы и принцессы

Масс-маркет, который можно носить по-королевски

VOICE
Как избавиться от домашних клопов за один день: готовимся к сезону вредителей Как избавиться от домашних клопов за один день: готовимся к сезону вредителей

Как обезопасить свою постель от домашних клопов?

ТехИнсайдер
Спасти отношения с любимым человеком: 10 шагов Спасти отношения с любимым человеком: 10 шагов

Стоит ли сохранять отношения, когда они трещат по швам?

Psychologies
Было навсегда, пока не кончилось: как равенство и инклюзия меняют продукты и компании Было навсегда, пока не кончилось: как равенство и инклюзия меняют продукты и компании

Как крупные компании изменились из-за политики DEI

Forbes
5 новых русских романов, которые стоит прочитать 5 новых русских романов, которые стоит прочитать

Книги, которые дадут цельное представление о современной российской литературе

Maxim
Авангард Леонтьев. Счастливчик Авангард Леонтьев. Счастливчик

«Только сейчас начал понимать, как мне везло в жизни»

Коллекция. Караван историй
Форсаж американского истребителя F-15: диски Маха в небесах Форсаж американского истребителя F-15: диски Маха в небесах

Как из турбореактивных двигателей истребителя F-15 Eagle выходят диски Маха

ТехИнсайдер
Доступная заграница Доступная заграница

5 интересных стран, где нас ждут

Лиза
Ты слишком громко дышишь Ты слишком громко дышишь

Что на самом деле вызывает нервозность и раздражительность

Лиза
Конец двусмысленности Конец двусмысленности

Краткая история культурных реформ — от открытия до закрытия «Гоголь-центра»

Weekend
Как понять, что у партнера сексуальная зависимость? Как понять, что у партнера сексуальная зависимость?

Не оказался ли ваш партнер секс-зависимым?

Psychologies
Снимите это немедленно Снимите это немедленно

В каких случаях очки могут тебе навредить

Лиза
15 незаметных признаков очень больших денег 15 незаметных признаков очень больших денег

Настоящее богатство видно при очень внимательном рассмотрении и хорошей дедукции

Maxim
Навязанные «удобства» Навязанные «удобства»

Без чего автомобиль может легко обойтись?

Автопилот
Открыть в приложении