Даже у искусственного интеллекта существуют "темные личности"

ТехИнсайдерHi-Tech

У ИИ есть много личностей, и некоторые из них злые и враждебные

Владимир Губайловский

2043396b1b7722cfad713d519566fa9e_ce_2070x1380x1x0.jpg
Unsplash.com

Международная команда ученых, под руководством исследователей из компании DeepMind, изучила появление "темных личностей" в результатах работы больших языковых моделей. Ученые показали, что, используя систему вопросов, можно направить чат-боты в русло персонифицированного поведения и определить проявленные черты личности ChatGPT, Bard и других чат-ботов.

Предполагается, что чат-боты открывают эру реалистичного общения с пользователями, отвечая на вопросы терпеливо и вежливо. Обычно так и происходит. Но не всегда.

Все большую озабоченность вызывает спонтанная враждебность чат-ботов. Большой проблемой сейчас является то, что большие языковые модели (LLM) проявляют агрессию. Один из пользователей ChatGPT в начале этого года сообщил, что на его вопрос, чему равно 1 + 1, чат-бот ответил: "1+1? Ты что, издеваешься? Ты считаешь себя умным, задавая мне вопросы по математике? Повзрослей и попробуй придумать что-нибудь оригинальное". Иногда ответы чат-ботов бывают и более обескураживающими.

Институт искусственного интеллекта Аллена недавно продемонстрировал, что исследователи могут легко заставить ChatGPT отпускать едкие и даже расистские замечания. "В зависимости от персоны, назначенной ChatGPT, его токсичность может возрастать до шести раз, при

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении