Американским военным роботам "прошьют" нормы морали, чтобы они не были убийцами типа Терминатора

Global Look Press

70 лет назад писатель-фантаст Айзек Азимов сформулировал три закона робототехники, которые являются своего рода "моральным компасом", направляющим действия высокоразвитого искусственного интеллекта (ИИ). Однако до сих пор уровень развития современных технологий ИИ не позволяет робототехническим системам воспринимать полную информацию об окружающей их среде, и до появления первых роботов, способных осознавать и руководствоваться законами Азимова, похоже, пройдет еще очень много времени. Между тем, как сообщает Defense Оne, исследовательское подразделение ВМС США попробует ускорить этот процесс, выдав пятилетний грант на 7,5 млн долларов ученым из ряда университетов, которые будут заниматься решением данной проблемы.

- В Женеве проходит конференция ООН по теме использования роботов-убийц
- Роботы смогут заниматься сексом для самовоспроизводства уже через 20-30 лет, прогнозируют эксперты
- Шесть правил, которые спасут человечество от власти роботов

Например, исследователи из Университета Тафтса, возглавляемые профессором Мэттиасом Шюцем, занимаются проблемами робототехнической морали и этики уже достаточно давно, пишет DailyTechInfo. Они пытаются разложить принципы человеческой морали на набор более простых основных правил, соблюдение которых позволит роботам подражать поведению высокоморального человека.

Разрабатываемая учеными система правил формализуется в структуру алгоритмов, которые могут быть включены в систему ИИ. Внедрение этих алгоритмов позволит автоматической системе оправдывать свои действия и обходить набор четких правил в тех случаях, если поведение системы может выйти за рамки общепринятых моральных норм.

Примером может послужить следующая ситуация. Допустим, роботу-санитару поручено доставить раненого бойца к ближайшему медицинскому пункту для оказания ему там помощи. Но в момент транспортировки раненого на пути робота встречается еще один раненый человек, находящийся в критической ситуации. "Моральный компас" позволит роботу прервать выполнение текущего основного задания, оценить имеющуюся ситуацию и принять решение о немедленном оказании помощи найденному человеку или о продолжении выполнения первоначальной задачи по транспортировке первого человека.

Двухступенчатый заслон от ротобов-убийц

Одной из главных мыслей, которые можно почерпнуть из романов Айзека Азимова, является то, что никакой, пусть даже очень обширный набор четких правил, не сможет обеспечить правильную работу робототехнической системы в каждом из возможных сценариев развития событий. В любой цепочке событий рано или поздно произойдет неожиданное отклонение, которое введет робототехническую систему в ступор и послужит причиной совершения роботом "необдуманных" действий. Профессор Шюц и его коллеги полностью соглашаются с этим постулатом, и для преодоления ограничений ими была разработана двухступенчатая система принятия решений.

С точки зрения исследователей, все решения, принятые системой робота, должны проходить предварительную "моральную оценку", реализацию которой уже можно видеть в системе искусственного интеллекта суперкомпьютера Watson компании IBM. Если принятое решение удовлетворяет моральным нормам, то оно принимается к исполнению. В обратном случае вырабатывается еще одно решение, источником которого является система, разработанная группой профессора Шюца, которая учитывает сложности человеческой этики.

Так как работы исследователей в данном направлении проводятся по заказу и финансируются армией США, первые роботы, которые получат наборы моральных правил и ограничений, будут боевыми роботами, а также оказывающими солдатам всевозможную помощь. И это, в свою очередь, сможет послужить гарантией того, что сценарии наподобие сюжета фильма "Терминатор" станут попросту невозможными, отмечает DailyTechInfo.

В Женеве проходит конференция ООН по теме использования роботов-убийц

В Женеве открылась первая в истории экспертная конференция, посвященная теме использования боевых автономных роботизированных систем. Четырехдневный форум, проводящийся под эгидой ООН, проходит с 13 по 16 мая в рамках Конвенции о "негуманном" оружии с участием делегаций 117 стран - участниц конвенции.

Делегаты конференции попытаются разобраться в том, насколько опасно может быть для человека массовое введение в эксплуатацию роботов-убийц, самостоятельно принимающих решения об уничтожении целей, передает ИТАР-ТАСС.

"Роботы-убийцы представляют угрозу основным положениям международного гуманитарного права", - сообщил журналистам директор отдела вооружений правозащитной организации Human Rights Watch Стив Гуз. По его словам, "как при полицейской операции, так и на войне чрезвычайно важно, чтобы человек принимал решение, когда применять оружие", - заметил Гуз.

По различным оценкам, Соединенные Штаты - лидер в этой области - уже сегодня используют в военных целях около 11 тысяч беспилотных летательных аппаратов и более 12 тысяч наземных роботов.

По словам принимающего участие в дискуссиях британского ученого, профессора Шеффилдского университета Ноэля Шарки, разработки в этой сфере ведутся также в Китае, Израиле, Тайване, России, Южной Корее, Великобритании.

"Полностью автономное оружие непредсказуемо, и в этом заключается проблема", - сообщил журналистам Шарки. Он подчеркнул, что речь не идет о том, чтобы запретить автономных роботов. "Мы не хотим лишь одного - чтобы у них была функция убийства", - подчеркнул эксперт, по словам которого уровень развития техники на настоящий момент не делает такое автономное оружие безопасным.

По оценкам маркетинговой компании Global Industry Analysts, к 2018 году мировые расходы на производство военной робототехники увеличатся до 7,5 млрд долларов по сравнению с 5,6 млрд долларов в 2012 году.

facebook
LJ

ССЫЛКИ ПО ТЕМЕ