Злые боты? Хорошие боты!
Многие считают, что боты — это такие зловредные американские программы для управления общественным мнением. Но в «Википедии» написано, что они помогают авторам статей и защищают энциклопедию от троллей и вандалов.
Модель функционирования интернет-энциклопедии «Википедия» по-прежнему занимательна. Разделы и статьи здесь составляются не группой известных ученых, а добровольными участниками, которые не только пишут, но и редактируют и проверяют содержимое статей. Усилия и время, потраченные уже только на выявление и правку нежелательных записей и изменений, огромны. Что же может быть логичнее, чем автоматизация рутинных, постоянно повторяющихся операций?
И тут на помощь приходят боты, облегчающие авторам жизнь и пресекающие проявления вандализма. В настоящее время в англоязычной «Википедии» официально задействовано 350 таких самообучающихся скриптов, доля участия которых во внесении изменений на платформе сейчас достигает 10%. Программа ClueBot NG, например, неустанно принимает решения о том, кто и что может писать в энциклопедии. Программа активируется до 700 раз в час, удаляя преднамеренный вандализм из текстов и предупреждая троллей. ClueBot NG управляется нейронной сетью, самообучающиеся алгоритмы которой работают подобно почтовому спам-фильтру. Сеть корректирует правила фильтрации, непрерывно получая данные о том, что именно авторы «Википедии» расценивают как проявление вандализма.
Чистоплюи против откровенных фотографий
Под вандализмом здесь понимаются всевозможные вмешательства деструктивного характера, начиная с преднамеренного удаления фрагментов, оскорблений, целенаправленных действий, которые могут повлиять на курс акций, политического пиара и заканчивая чисто разрушительным поведением. Часто в статье могут неожиданно всплывать фотографии обнаженных частей тела с непристойными комментариями. Эти довольно очевидные моменты боты могут распознать и обработать. Но они не в состоянии определить, соответствуют ли фотографии информации, содержащейся во фрагменте текста, — это по-прежнему должен решать человек. Тем не менее помощь ботов неоценима. Как показало исследование Стюарта Гейгера и Аарона Хальфакера из университетов Беркли и Миннесоты, в случае сбоя только ClueBot NG пришлось бы проводить двойную работу по удалению контента провокационного характера.