Естественный ход развития техники — создание систем роботов

ЭкспертHi-Tech

От роя к социуму роботов

Естественный ход развития техники — создание систем взаимодействующих друг с другом роботов. Для этого ученые изучают поведение социальных насекомых — пчел и муравьев. Активные работы ведут военные в США, но и Россия не остается в стороне

Заур Мамедьяров

Валерий Карпов. Предоставлено Курчатовским институтом

В одной из серий киберантиутопии «Черное зеркало» злодей программирует пчел-роботов на месть неугодным людям. Возможно ли такое в реальной жизни? Ответ дает одно из передовых направлений современной робототехники — создание систем роботов, способных взаимодействовать друг с другом. И хотя мстить с помощью таких устройств пока никто не собирается, ученые вдохновляются примерами из живой природы: колониями муравьев или роями пчел.

В США разработками в области групповой робототехники занимается DARPA — управление перспективных исследовательских проектов минобороны. Совместно с компанией Lockheed Martin DARPA ведет проект Squad X, где пехотные войска работают бок о бок с автономными группами роботов и дронов: устройства изучают местность и сообщают солдатам о возможных угрозах. Другой аналогичный проект DARPA — OFFSET (OFFensive Swarm-Enabled Tactics, наступательная тактика с применением роя), цель которого — «использование роев более чем из 250 беспилотных летательных аппаратов или беспилотных наземных систем для выполнения задач в сложных городских условиях». В августе американские военные опубликовали видео тестирования системы: на нем видно, как группа беспилотников анализирует городские кварталы, чтобы найти, окружить и обезопасить конкретное здание. А в конце прошлого года управление рассказало о программе CODE, в рамках которой беспилотные летательные аппараты должны не только изучать местность, но и реагировать на неожиданные угрозы даже в тех случаях, когда потеряна связь с военным командованием. Разумеется, в описании программы DARPA тщательно избегает слова «атаковать».

Военные операции, пожалуй, самое очевидное, но не единственное применение групповой робототехники. Например, еще в 2014 году исследователи из Гарварда проводили эксперимент по созданию группы роботов-строителей, действующих подобно колонии термитов. В Евросоюзе на групповой робототехнике специализируется лаборатория искусственной жизни Грацского университета имени Карла и Франца, где разрабатывают группы роботов-подводников и дронов, способных присоединяться к группам настоящих животных. В России одним из центров исследований в этой области является лаборатория робототехники Курчатовского комплекса НБИКС — нано-, био-, инфо-, когно- и социогуманитарных природоподобных технологий, созданная десять лет назад Михаилом Ковальчуком. Мы побеседовали с начальником лаборатории Валерием Карповым, чтобы узнать об особенностях и перспективах групповой робототехники.

— Чем занимается ваша лаборатория? Какие исследования вы ведете?

— В области робототехники наша основная парадигма — это использование моделей социального поведения в групповой робототехнике. Мы предполагаем, что роботы должны уметь образовывать аналоги социальных сообществ — тех, что наблюдаются в живой природе. И исходя из этого проводим исследования в области моделей поведения, способов взаимодействия, алгоритмов, методов, которые позволяют создавать не просто роботов, а группу роботов с весьма специфическими свойствами. Например, реализующих механизм когезии — стремления держаться вместе, механизмы контагиозного, или «заразного», поведения. Такие роботы выясняют взаимоотношения внутри группы, чтобы определить лидера или доминанта, проявляют подражательное поведение. Иными словами, у нас получается социум искусственных агентов, похожий на социум насекомых.

При этом важно, что модели не абстрактны. В нашей лаборатории, наверное, одна из самых больших группировок мобильных роботов в России — их порядка двадцати штук. И это позволяет проводить широкомасштабные эксперименты.

Группа роботов решает «лабораторную» задачу. Предоставлено Курчатовским институтом

— Они обладают коллективным интеллектом?

— Этот термин не совсем корректен. Речь идет не об интеллекте, а о способах организации взаимодействия между роботами. Самая простая форма организации — роевые системы. В рое каждый индивид определяет свое поведение исходя из того, что делают его соседи. В рое все равны, и никаких интересных системных эффектов не возникает.

Дальше начинается усложнение: формируется групповая система. Там уже есть лидер — получается не рой, а аналог стаи. Лидер может быть локальным, временным или постоянным. Это несущественно — главное, кто-то доминирует.

Следующим шагом должно быть появление механизмов, которые превратят это в настоящий социум. Вот тогда-то мы получим устойчивую систему со своим целеполаганием и массой интересных свойств, важных с практической точки зрения.

— Так называемые эмерджентные свойства?

— Да, именно они.

— Что необходимо внедрить в единицу, чтобы группа из этих единиц дала эмерджентные свойства?

— Это сложный вопрос. Собственно говоря, мы и пытаемся понять, что нужно для того, чтобы робот стал членом социума.

Первоначально предполагалось, что эмерджентные свойства мы сможем получить, когда будем иметь дело с большим количеством простых объектов — роботов. Мы начали с того, что собирали роботов серии YARP-0 (Yet Another Robot Platform — достаточно простых, дешевых. Сначала мы думали, что для получения эмерджентных свойств нужно создать несколько десятков таких роботов. Стали разбираться — а эти роботы почти ничего не умеют. Сделали роботов серии YARP-1, потом YARP-2, дошли до YARP-4… Но все, оказывается, не так просто. Изначальное допущение не работает: из множества простых устройств не получается сложного. Простой робот или агент не способен стать членом социума.

Социальное взаимодействие требует умения решать сложные задачи. Например, необходимо уметь реализовывать подражательное поведение, для этого нужны сложные когнитивные механизмы. Мало того, что робот должен определить чужих, своих, тех, кому он будет подражать, — он должен еще знать, чему именно подражать. Он должен понимать, что тот, кому он подражает, встроен в его картину мира. И, сопоставляя его поведение со своим или его образ с самим собой, он должен что-то делать. И основной тезис групповой робототехники, что сложные задачи можно решать совокупностью простых устройств, оказывается несостоятельным. Поэтому мы и учим наших роботов распознавать, строить картину мира, реализовывать когнитивные функции. Это и есть цель наших исследований.

— Если говорить о социальных насекомых как образце для подражания в таких системах, разве они могут производить сложные действия, о которых вы сейчас говорите?

— Да, другого варианта нет. Может быть, в биологических терминах картина выглядит несколько иначе, но, скорее всего, они действительно все это умеют и именно так оценивают мир. Иначе просто работать не будет. И не надо полагать, что насекомые примитивны, — они очень сложны.

— Каковы реальные коммерческие применения групповой робототехники?

— Если посмотреть на публикации в интернете, в научно-популярных изданиях, то можно сказать, что групповая робототехника применяется везде, и успешно. Есть совокупности летательных аппаратов — от дронов до управляемых снарядов, перспективные разработки военных, применение групп роботов в области разведки — то, что делает, например, DARPA. Кажется, что такие системы умеют делать многое, если не всё, но реальный выход достаточно скромен.

Проблема в том, что в современных групповых системах практически нет эффективно работающих автономных групп. Лучше всего работают системы с централизованным управлением. Пока что многого не хватает с точки зрения понимания того, как должна быть устроена групповая система, способная, например, к самоорганизации, к тому, чтобы перестраиваться, ставить новые задачи в сложной среде, чтобы сохранять свою целостность как социальная группа.

— Какие вы видите перспективы? Или через пятьдесят лет групповая робототехника окажется в тупике?

— Нет, тупика не предвидится. Использование групповых систем — естественный ход развития техники. Когда есть система, состоящая из множества устройств, возникает масса технических возможностей. Система масштабируема, она претендует на универсальность, надежность. В большой системе гораздо легче должны решаться вопросы самоорганизации. Только возникает вопрос: на основе чего система будет самоорганизовываться? И наше направление — модели социального поведения — как раз и пытается на него ответить.

Представьте себе, что у вас есть неподготовленная природная территория без специальной инфраструктуры. И вы хотите, чтобы с какой-то целью — например, охраны, разведки, мониторинга — в течение продолжительного времени на этой территории существовала группа технических устройств. Такова постановка задачи с практической точки зрения. А если начать рассуждать о том, что нужно для существования такой группы, вы поймете, что технические устройства должны уметь осуществлять разведку и при этом приобретать новые данные и знания о том, что происходит вокруг. У них должна быть способность к подражательному поведению: если одно устройство в неизвестной обстановке чему-либо научилось, то и другие должны перенять его манеры поведения. В них должен быть реализован механизм доминирования: если лидер группы выбывает из строя, кто-то должен занять его место. Получается, что группа технических устройств должна вести себя примерно как колония муравьев на неизвестной территории.

— Эта группа устройств, о которой мы говорим, никак не связана с внешним миром? Она может быть абсолютно автономной?

— Это самое интересное. Система должна выживать автономно без привлечения дополнительных источников информации и энергии. И в этих условиях обязательно возникнет дифференциация функций. Кто-то будет заготавливать сырье, кто-то — переносить его, кто-то — заниматься разведкой. Это совершенно разные функции, они должны быть присущи разным роботам — и по техническим характеристикам, и по степени психической организации. Роботы должны обладать разным темпераментом.

— Когда это может быть реализовано на программном уровне? Как можно задать эмоциональность, параметры нервной системы конкретного робота?

— Темперамент хорошо моделируется. Можно запрограммировать параметры эмоциональной системы управления робота, задать характер поведения. Устройство, готовое быстро откликнуться на любой раздражитель, активно на него отреагировать, обладает характером поведения, который мы можем оценить как холерический. Если устройство не обращает внимания на незначительные возбуждения и сигналы или реагирует крайне медленно, это флегматик. Например, роботу-разведчику нужен характер холерический. Подчеркну, что в таких терминах действительно удобно описывать характер поведения робота.

— Почему автономные группы роботов до сих пор масштабно не реализованы? Чего не хватает?

— Это сравнительно новые исследования. Мы находимся в стадии, когда мы только переходим от фундаментальных математических моделей к реальным техническим устройствам. И пока все наши модели ограничены лабораторными образцами. Чтобы дойти до отработки на масштабных реальных устройствах, нужны другие ресурсы — и человеческие, и материальные, и временные. Это весьма затратные исследования.

— Где могут применяться такие автономные группы?

— Практически везде, где возникает возможность использования группы роботов. Но иногда появляются весьма неожиданные задачи. Например, в сайнс-арте — направлении современного искусства. Год назад художники поставили задачу: анимировать движение медицинских светильников, чтобы они качали «головами», разговаривали друг с другом, погружались в сон, просыпались, взаимодействовали с пользователем. С технической точки зрения такая анимация — несложная задача. Но художникам хотелось, чтобы движения были осмысленными, чтобы можно было объяснить характер движения, стиль общения. Это типичная поведенческая задача. Мы решили: пусть светильник обладает эмоционально-потребностной архитектурой и у него будут потребности — в отдыхе, в общении, в поисковом поведении, в самосохранении. Когда мы реализовали эти четыре базовые потребности, все встало на свои места. Светильники стали вести себя так, как будто они если не разумные, то, по крайней мере, живые.

Эмоционально-потребностная архитектура лежит в основе наших роботов именно по той причине, по которой нам важно добиться адекватного поведения. Условно говоря, вы даете команду роботу двигаться куда-то, а у него есть потребность в самосохранении — он просто не будет выполнять вашу команду, если она будет угрожать его безопасности, потому что потребность в самосохранении гораздо выше. Если, конечно, вы не подкрутите параметры и потребность выполнения приказа человека не окажется важнее. Это работает.

Например, в нашей лаборатории была решена следующая задача. Есть группа объектов, которая может быть подвержена внешнему деструктивному воздействию. У этой группы постоянно должен быть лидер. Когда лидер выходит из строя, кто-то должен занять его место, и у нас есть модели, которые позволяют объектам договариваться с помощью голосования. Они голосуют, решают, кто теперь будет главным. А если стая разбилась на несколько групп, между которыми нет связи, каждая подгруппа выберет себе главного.

Возможна и другая модель, в которой лидер определяется по расположению в группе: он должен находиться в безопасном месте, в центре.

— По расположению относительно других членов группы?

— В этой модели — да. Лидер должен быть в безопасности и иметь максимальное количество связей с окружающими.

Есть более простые модели, которые мы опробовали на примере стайной охоты. У нас роботы бежали стаей, чтобы сымитировать охоту — кого-то загнать, настичь. В таком случае динамического лидера выбирают по внешнему виду — как в настоящей стае. Кто «толще», кто сильнее, тот и будет лидером. Именно он и будет дальше определять движение всей группы.

Но все же основная наша задача — создание настоящего социума, своего рода кибермуравейника. Тогда мы могли бы претендовать на общность решаемых задач.

— И кто-то еще мог бы это взять за основу для своих практических применений? Например, военные.

— Не только военные. У задачи мониторинга больших территорий не обязательно военный характер. Какие-то фрагменты модели могут применяться уже сейчас на гражданских задачах. Например, для дистанционного управления транспортными средствами, когда необходима автоматическая караванная проводка транспортных средств. Представьте ситуацию, когда что-то случается, теряется лидер или связь с оператором. Должны существовать механизмы, которые позволят оставшимся машинам продолжить функционировать. Например, ехать туда же, куда едут все. Это элемент контагиозного, или подражательного, поведения.

Виды сообществ. Усложнение структуры групп

Источник: Карпов В. Э. Модели социального поведения в групповой робототехнике // Управление большими системами: сборник трудов. — 2016. — № 59

— Кому принадлежит первенство в сфере моделирования социального поведения? Какое место в мире занимают исследования вашей лаборатории?

— Думаю, у нас есть приоритет в этом направлении. Но надо понимать, что наши исследования проводятся в сотрудничестве со специалистами Высшей школы экономики, МГТУ имени Баумана, ряда академических институтов.

Когда мы говорим о социальном поведении роботов, то обычно встречаем рассуждения на тему взаимодействия человеческого социума с техническими устройствами. А у нас была другая постановка задачи — понять, можно ли сделать так, чтобы роботы образовали социум как таковой. Искусственный социум, социум искусственных агентов. Такой постановки задачи мы не видели нигде.

Элементы социального поведения в исследованиях встречаются гораздо чаще, но с другой точки зрения: ученые находят какой-то интересный, как им кажется, механизм, который наблюдается в живой природе, и предлагают реализовывать этот механизм в группе роботов. Но чаще всего нельзя вычленить этот отдельный механизм как таковой. Имеется единая сложная система со сложным поведением, а мы лишь выделяем некоторые формы его проявления, обозначая это тем или иным образом. Когда мы говорим, что есть контагиозное поведение, когезия, подражание, доминирование, агрессия, важно понимать: это большая условность. Это не вычленяется. Например, нет специфического механизма, на который можно навесить ярлык под названием «агрессия». Есть лишь наша оценка поведения, которое мы называем агрессивным.

— Объясните, как задать автономной группе задачу? Где должна содержаться эта задача?

— Это очень сложный вопрос. В любой нормальной системе с технической точки зрения должна быть цель — иначе непонятно, зачем мы работаем. Но если говорить о социуме, то у него нет цели. Даже этологи, которые изучают поведение живых организмов, предпочитают об этом не говорить. В лучшем случае вам скажут, что целевая функция колонии общественных насекомых — поддержание постоянства состава или расширенное воспроизводство на каком-то временном интервале.

Все механизмы, которые мы рассматриваем, нужны как раз для создания совокупности технических устройств, способных успешно адаптироваться под условия окружающей среды. Ведь социальная организация — это один из способов адаптации. Редуцированные осы 130 миллионов лет назад спустились на землю, потому что с кормовой базой что-то случилось, и превратились в муравьев. Они стали вырабатывать механизмы социального взаимодействия, научились решать задачу выживания. По большому счету мы тоже хотим, чтобы группа роботов жила на ограниченной территории и успешно адаптировалась, то есть выживала.

А дальше начинается самое интересное. Роботы решают задачу поддержания территориального гомеостаза, то есть выживают. Но нам хочется решать задачи прикладного характера — например, охраны территории. Значит, мы должны «подкрутить» параметры управления индивидов, их системы связи или изменить параметры их среды обитания так, чтобы их поведение стало более активным, агрессивным. Мы меняем параметры системы и получаем сообщество, которое чисто внешне занимается охраной территории. Подкручиваем другие параметры, меняем систему управления социумом и получаем систему, которая направлена на экспансию вовне. С прикладной точки зрения мы решили задачу создания группы роботов-разведчиков. Это по-прежнему социум, целостное устойчивое формирование, но нашу цель мы включили в его восприятие.

— Как осуществляется контроль за такой системой? Есть какая-то красная кнопка?

— Все гораздо тоньше. Мы решили, что здесь лучше подойдут принципы паразитического манипулирования. Когда паразит заражает организм хозяина, то слегка подправляет некоторые параметры: чуть больше того, чуть больше этого. В противном случае организм хозяина выйдет из строя раньше, чем это нужно паразиту. Слегка меняются мотивация, потребности организма: в целом он остается дееспособным, просто иногда странно себя ведет. Принципы паразитического манипулирования — хороший способ оказать влияние на индивидуальное поведение. А где меняется индивидуальное поведение, там корректируются и характеристики социального поведения.

С точки зрения организма хозяина, паразит — очень простой организм. Но эволюция приводит к тому, что это простое управляющее устройство добивается контроля над очень сложным объектом. Есть робот, у него вполне серьезные вычислительные ресурсы, на борту стоит мощная ЭВМ, которая реализует все механизмы: движение, ориентацию, механизмы, реализующие эмоционально-потребностную архитектуру. Мы добавляем туда маленький процессор, совсем дешевый микроконтроллер, который умеет только оказывать воздействие на те или иные параметры сложной системы — хозяина «паразита».

Мы исследуем и другой путь управления искусственным социумом: сохранить все механизмы работоспособными, но слегка изменить параметры внешней среды.

— Грубо говоря, температуру?

— Температуру, нехватку кормовой базы. Но здесь мы пока не сильно продвинулись. Это очень многопараметрическая задача. Мы не знаем, где заканчивается индивидуальный уровень, где начинается уровень социальных взаимоотношений, а где — среда.

Есть и третий способ управления, самый проблематичный с точки зрения методологии, — управление моральными императивами индивидуумов в группе. Мы не хотели подбираться к этой теме, потому что какая может быть мораль у аниматов, у роботов? Казалось бы, сплошные спекуляции. Но если попробовать разобраться в этом вопросе, оказывается, что мораль — один из способов адаптации. Социум устойчивый, потому что в определенных условиях существуют определенные правила разрешения конфликтов. Эта настройка социума не затрагивает эмоционально-потребностной архитектуры и критических контуров управления, поэтому «подкручивать» мораль очень удобно.

Фото: ТАСС

— Сейчас много говорят об искусственном интеллекте. Хотелось бы узнать ваше мнение. Можно ли говорить, что социальная группа роботов будет обладать некой формой искусственного интеллекта или разума?

— Здесь важно понимать, что такое искусственный интеллект. С одной стороны, это некоторая метафора, аналог искусственного разума, думающая машина. На эту тему масса спекуляций и полная неразбериха. С другой стороны, искусственный интеллект — вполне устоявшаяся наука, область информатики, которая занимается решением специфических задач. Считается, что искусственный интеллект решает задачи либо слабоформализуемые, когда мы не можем четко сформулировать критерии, либо те, для которых неизвестен эффективный алгоритм решения. Например, задача хорошо формализована, можем четко описать вход, выход, а способ решения очень неудобен, требует массы ресурсов. К примеру, путем перебора всех вариантов. Тогда искусственный интеллект как область науки занимается поиском методов подходящего решения тех или иных задач.

Мы редко говорим, что наши роботы должны быть интеллектуальны. Никто ведь не называет социальных насекомых интеллектуальными. Одно из определений интеллекта как такового — умение решать задачи, используя специфические механизмы. Например, реализацию правдоподобных рассуждений, поиск эмпирических закономерностей, реализацию познавательных процедур. Никто от муравья этого не требует. И от членов социума вообще. Так что интеллект в этом отношении — более узкая область существования. Мы говорим по-другому: должны быть реализованы некоторые когнитивные функции. Робот, искусственный агент, как и муравей, должен уметь познавать мир и выявлять его закономерности, адаптироваться. Не более того.

— Если вычислительно мощная система состоит из огромного числа элементов, решает какие-то задачи, но по уже заранее архитектурно заложенному сценарию, может ли она сама заложить себе новый сценарий, по которому будет решать новые типы задач? Такое возможно?

— Создание новых метаправил, эвристик, новых целей — бурно развивающаяся область. Она уже весьма почтенна.

— Как это реализуется?

— Приведу пример. Где-то в начале восьмидесятых годов знаменитый Дуглас Ленат пишет программу под названием «Автоматизированный математик», которая умеет доказывать теоремы. Доказательство теорем похоже на игру в кубики: есть правила игры, строительные элементы, начальная ситуация, конечная ситуация. Надо доказать, что из начальной ситуации можно перейти к конечному результату. И дальше мы получаем проблему слишком большого перебора вариантов. Нельзя же перебирать, пусть и с большой скоростью, все возможные правила подстановки, замены переменных. Чтобы ограничить перебор, существуют правила, которые мы не можем строго обосновать, но на практике они помогают в поиске, — они называются эвристиками. Например, известная эвристика: в лабиринте держаться правой руки или левой. Если будете так себя вести, то, скорее всего, найдете выход. В переборных задачах Ленат использовал именно эвристики — закладывал правила в отношении того, в каком направлении перебирать варианты. Успех пришел, когда система стала пытаться сама генерировать эвристики. Тоже путем перебора: а вдруг сработает правило, согласно которому необязательно идти на упрощение выражения?

Какие-то эвристики оказались полным бредом, но некоторые заработали. И тогда у Дугласа Лената появилась система, которая генерировала эвристики и научилась решать интересные задачи, доказывать новые математические теоремы.

— А что происходит сегодня в этой области?

— Сегодня подобного рода задачами занимается, например, прикладная семиотика. Система знаний об окружающем мире представляется в виде большой знаковой сети, затем разрабатываются модели, которые позволяют ей искать пути, определять цели и задачи для достижения целевой ситуации. Это магистральное направление существует с самого начала развития искусственного интеллекта.

Но нельзя сказать, что существуют эффективно работающие системы, которые решают абсолютно прикладные задачи и претендуют на универсализм. Это особенность искусственного интеллекта. Частные задачи любого плана мы решать умеем — это касается и искусственного интеллекта, и робототехники. Мы можем доказать теорему, написать программу, которая играет в шахматы и в го. Чудесно работают программы, которые сочиняют музыку, литературные произведения. Это пресловутая имитация творческих процессов. Но это специализированные системы, они не могут выполнять задачи разного типа с одинаковой степенью успеха.

Есть ученые, способные прогнозировать экономический кризис. При этом ни одна компьютерная система сделать этого не может, хотя и оперирует огромным количеством экономических данных. Почему ИИ не может справиться с задачей, которую может решить человек?

— Представление, что у интеллектуальной системы есть огромное количество данных, а человек скромненько сидит, шевелит мозгами и решает задачу, — лукавство. Надо понимать, что за человеком стоит огромный опыт, огромное количество знаний. У человека сформирована очень сложная картина мира, в которой прописаны закономерности, зависимости, влияние одного на другое. А еще человек реализует рассуждения здравого смысла — то, что является камнем преткновения в ИИ. Поэтому нельзя считать, что возможности человека по сравнению с машиной ограничены.

К тому же большой набор данных не гарантирует адекватность, достаточность информации. Даже когда вы формируете обучающую выборку, оказывается, что многое просто мешает. Избыток данных приводит к тому, что система вдруг начинает выдавать ответ, который не имеет никакого смысла. Вообще, существует суждение, что если вы сумели качественно подготовить обучающую выборку, то задача уже решена на девяносто процентов.

— Сама машина не может определить, что данные лишние?

— Нет, потому что за ней не стоит человеческий опыт. В ней нет правил, которые определят, что урожай зерновых в Южной Америке может повлиять на особенности прокладки какого-то трубопровода. А вы эти данные ей все равно скармливаете.

— Получается, в перспективе ни одна машина не сможет превзойти человеческий разум?

— В каком-то смысле вычислительная машина со всем ее ореолом могущества — это большой вычислитель, большой калькулятор. Все остальное — это уже не возможности вычислительных машин, а наши представления о том, как должен выглядеть процесс мышления и интуиции. Поэтому и для нас в групповой робототехнике основная проблема не в том, чтобы иметь вычислительные мощности, а в том, как выглядит модель, которая реализует то или иное поведение. Это гораздо важнее. И это уже задача для ученого, для человека.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Рейтинг брендов Рейтинг брендов

Бренды, которые стали заметны на рынке за год

Forbes
Чулпан Хаматову приняли за эскортницу во время ее ужина с богатым мужчиной Чулпан Хаматову приняли за эскортницу во время ее ужина с богатым мужчиной

Чулпан Хаматова является одной из самых востребованных российских актрис

Cosmopolitan
Застолбить платформу Застолбить платформу

Маркетплейс от ЦБ будет мешать конкуренции на рынке финансовых услуг

Эксперт
Данила Савченко: Правила съема, или Почему рынку недвижимости необходимы профессиональные посредники Данила Савченко: Правила съема, или Почему рынку недвижимости необходимы профессиональные посредники

Чему нам стоит поучиться у западных коллег

СНОБ
Пощупать границы лояльности Пощупать границы лояльности

Кешбеки и проценты на остаток — это не более чем обдуманный маркетинговый прием

Эксперт
Алексей Комиссаров: Если хотя бы один блатной пролезет на конкурс «Лидеры России», проект умрет Алексей Комиссаров: Если хотя бы один блатной пролезет на конкурс «Лидеры России», проект умрет

27 октября закончился прием заявок на управленческий конкурс «Лидеры России»

СНОБ
Полный дзен Полный дзен

Загородный интерьер в минималистском стиле

SALON-Interior
Стильный ход Стильный ход

Смелые решения в интерьере одной петербургской квартиры

SALON-Interior
Ежовые рукавицы нейтральной жестокости Ежовые рукавицы нейтральной жестокости

Банк России так и не перешел к мягкой денежно-кредитной политике

Эксперт
Наталья Бочкарева тогда и сейчас: что изменилось во внешности «Даши Букиной» Наталья Бочкарева тогда и сейчас: что изменилось во внешности «Даши Букиной»

За Натальей Бочкаревой закрепилась самая яркая ее роль

Cosmopolitan
Найди в себе ген директора Найди в себе ген директора

Пройди тест и узнай, какой из тебя получится босс

Maxim
lexus UX. Премиальная миниатюра lexus UX. Премиальная миниатюра

Автопроизводители нашли способ бесконечно продавать один и тот же автомобиль

4x4 Club
Моя любимая практика: Дыхание Моя любимая практика: Дыхание

Как извлечь пользу даже из столь привычного действия, как дыхание

Glamour
Попробуйте коктейль, вдохновленный картиной Джексона Поллока Попробуйте коктейль, вдохновленный картиной Джексона Поллока

Коктейль «Номер 11» в лучшем баре в Европе

GQ
7 эксклюзивных рецептов шотов, которые зайдут на любой тусовке 7 эксклюзивных рецептов шотов, которые зайдут на любой тусовке

Сейчас мы прокачаем твой скилл бармена

Playboy
Кадр на миллион: стоит ли сегодня инвестировать в фотографию Кадр на миллион: стоит ли сегодня инвестировать в фотографию

Где покупать фотографию, как ее хранить и на какую прибыль рассчитывать

РБК
Можно ли пить пиво после тренировки Можно ли пить пиво после тренировки

И не только пиво, а вообще любой алкоголь? Поговорили с экспертами

Maxim
Счастлива с очередной попытки: мужчины самой богатой актрисы Скарлетт Йоханссон Счастлива с очередной попытки: мужчины самой богатой актрисы Скарлетт Йоханссон

Скарлетт Йоханссон возглавила список самых высокооплачиваемых актрис

Cosmopolitan
Правило 46: Больше грязи – больше связи Правило 46: Больше грязи – больше связи

Наш гуру Алексей Ситников настаивает, что «чистый» и «экологичный» — разные вещи

Tatler
Неучтенное время. Как жить, если у тебя слишком много дел Неучтенное время. Как жить, если у тебя слишком много дел

Больше 40% людей в России испытывают стресс, связанный с работой

СНОБ
Миллиардерша и рэпер расстались? Нюансы отношений Кайли Дженнер и Трэвиса Скотта Миллиардерша и рэпер расстались? Нюансы отношений Кайли Дженнер и Трэвиса Скотта

Дженнер Кайли поставила на паузу свои отношения с рэпером Трэвисом Скоттом

Cosmopolitan
Приз за тело: как устроены фитнес-марафоны и почему они подходят не всем Приз за тело: как устроены фитнес-марафоны и почему они подходят не всем

Можно ли доверять инстаграм-аккаунтам фитнес-марафонов?

РБК
Улыбаться жизни вместе Улыбаться жизни вместе

Кто сказал, что жизнь – это всегда преодоление?

Psychologies
Нашествие призраков: почему стало нормой исчезновение сотрудников сразу после приема на работу Нашествие призраков: почему стало нормой исчезновение сотрудников сразу после приема на работу

Компании все чаще сталкиваются с гостингом соискателей

Forbes
7 блюд, которые эксперты советуют никогда не заказывать в ресторане 7 блюд, которые эксперты советуют никогда не заказывать в ресторане

Скажи «нет» этим блюдам и лучше закажи что-нибудь другое

Playboy
Фитнес-подсказки Фитнес-подсказки

На самые популярные вопросы о фитнесе отвечают специалисты

Здоровье
Недостача на $330 млн: как банк плохих долгов остался без денег от продажи инвестбизнеса «Открытия» Недостача на $330 млн: как банк плохих долгов остался без денег от продажи инвестбизнеса «Открытия»

Вадим Беляев смог продать ядро инвестиционного бизнеса банка Роману Авдееву

Forbes
«Говорить о неэффективности следствия не приходится»: суд оставил Калви и Дельпаля под домашним арестом «Говорить о неэффективности следствия не приходится»: суд оставил Калви и Дельпаля под домашним арестом

Басманный суд не выпустил из-под домашнего ареста фигурантов дела Baring Vostok

Forbes
Принцип равнозначности. Kia ProCeed vs Toyota C-HR Принцип равнозначности. Kia ProCeed vs Toyota C-HR

Сравниваем автомобили Kia ProCeed и Toyota C-HR

РБК
Эхо детства: по дороге к себе Эхо детства: по дороге к себе

В детстве находится источник творчества, который мы можем вернуть в свою жизнь

Psychologies
Открыть в приложении