Ученые разработали ИИ, который принимает морально-ответственные решения
Исследователи Университета Северной Каролины разработали систему, следуя которой, ИИ сможет делать этический выбор и учитывать моральную ответственность за свои решения. Система рассчитана в первую очередь на роботов и ИИ, работающих с больницах и оказывающих помощь людям.

Когда-то Айзек Азимов сформулировал 3 закона робототехники. Главная цель этих законов - ограничить поведение роботов таким образом, чтобы они не могли причинить вред человеку. И эти законы в рассказах Азимова "прошиты" прямо в "позитронный мозг" робота. Но весь азимовский цикл "Я робот" написан о том, что эти "три закона" работают не всегда. Герои рассказов постоянно оказываются в положении, когда непонятно, что такое "вред", и как его "не причинить".
Но так или иначе сформулировать систему запретов и рекомендаций необходимо, иначе человек не сможет работать с роботами, если они достаточно самостоятельны, чтобы принимать свои решения, а не только следовать командам.
Исследователи Университета Каролины решили разработать принципы ИИ, которые могли бы внести такие ограничения в работу роботов.