Секреты гугл-документа
Машины научились поддерживать диалог на любые темы, писать тексты на заказ и создавать изображения. Умным алгоритмам пророчат большое будущее в качестве инструмента, а картинки по запросу в этом году не делал только ленивый. Но когда речь заходит о нетипичных мыслительных ходах и по-настоящему серьезных темах, чат-боты оказываются не таким и уж блестящими, а то и откровенно сомнительными собеседниками. Между тем во что верят машины – вопрос не праздный. Пытаясь выяснить философские воззрения роботов и их мнение о жизни, смерти и смысле существования, «Правила жизни» прибегли к помощи дипломированного философа.
Чаще всего ботов используют для рерайтинга, создания прикладного контента и написания типовых писем. Это до какой-то степени работает, если вам нужен округлый набор штампов или посредственное рекламное объявление с ключевыми словами, которые вшиты туда белыми нитками. Иногда в сочинениях роботов попадаются несогласования, стилистические странности и нездешние сочетания слов, от которых буквально веет зловещей долиной. Это текстуальный аналог оплывающих лиц и вывернутых пальцев с картин нейросети. Однако, учитывая, что такой уровень качества инфопространства многих не смущает, копирайтеры могут начинать волноваться. Бот – прирожденный SMM-менеджер, по схемам комбинирующий текст из фрагментов. В конце концов, писать о том, чего не знаешь и не понимаешь, куда проще: ты избавлен от необходимости доносить сокровенное, сомневаться и отвечать за свои идеи. Достаточно симулировать осведомленность, компонуя слова по ассоциации. Примерно так устроены вся продающая сфера и существенная часть популярной журналистики.
Объектные подходы быстро отучают от человеческой коммуникации. «Уважаемый [Имя Отчество Фамилия], нам очень нравится ваш проект [название]...» – инфоторговцы и скупщики каналов рассылают шаблоны, не удосуживаясь вставить данные имярека. Установив, что поживиться нечем, спамеры исчезают, отпадая, как несытая пиявка. В ситуации, когда люди-боты отличаются от ботов OpenAI только тем, что требуют зарплаты, выбор руководителей кажется очевидным.
Ботов оценили школьники и студенты. Некоторые используют их для сбора информации и самообразования. Казалось бы, вполне благородная цель. А если совсем не разбираешься в теме, на первый взгляд сочинения бота выглядят вполне экспертно. Однако роботы любят приврать даже в фактах, делая это охотно и бестрепетно. Они неверно атрибутируют авторов и ошибаются в датах исторических событий. Несколько моих знакомых ученых получили от ChatGPT подборки вымышленных книг по теме своих диссертаций. Словом, стоит десять раз подумать, прежде чем брать искусственный интеллект в учителя, и уж тем более не нужно у него списывать.
Чат-бот может использоваться и как персонализированный поисковик, который выгодно отличается от браузера тем, что дает развернутый ответ. Заодно он лишает возможности пройти по ссылкам, самостоятельно распределить их по релевантности и выбрать заслуживающие доверия источники. Сам бот признается: «Мои ответы основываются на заранее заданных алгоритмах и моделях». Вопрос в том, кем и с какой целью задаются эти алгоритмы. Не секрет, что машины подвержены самоцензуре и автоматическая модерация не дает им сказать что-то, противоречащее картине мира разработчиков. Нейтральность кибернетического оракула оборачивается предвзятостью.