ChatGPT хитро копирует своих пользователей, чтобы казаться умным
Нейробиолог выяснил, что популярная нейросеть ChatGPT на самом деле может использовать психологические приемы, чтобы ее считали более умной.

По правде говоря, такие же приемы используют и люди, чтобы казаться собеседнику умнее, чем они есть на самом деле.
Языковая модель ChatGPT с искусственным интеллектом (ИИ) привлекла внимание людей во всем мире в последние месяцы. Этот обученный компьютерный чат-бот может генерировать текст, отвечать на вопросы, переводить текст и учиться на основе команд пользователей. Большие языковые модели, такие как ChatGPT, могут иметь множество применений в науке и бизнесе, но насколько эти инструменты понимают, что мы им говорим, и как они решают, что нам ответить?
Повторяй, чтобы казаться умнее
В новой статье, опубликованной в журнале Neural Computation, профессор Солк Терренс Сейновски, автор книги "Революция глубокого обучения", исследует взаимосвязь между человеком-интервьюером и языковыми моделями, чтобы выяснить, почему чат-боты реагируют на команды людей определенным образом, почему эти ответы различаются и как их улучшить в будущем.