Наука и техника
Главная » Робототехника » Этика и мораль » Законы робототехники защитят людей

Новые законы робототехники защитят людей от роботов

Законы робототехники

Новые законы робототехники, разработанные двумя учёными из США, возможно будут способны защитить людей от роботов, однако здесь всё довольно не просто...

С неустанным развитием робототехники, роботы и другие автоматизированные системы становятся все умнее. В то же время на них перекладывается всё больше обязанностей, вождение машины, помощь с детьми, охрана дома и, вероятно даже участие в военных операциях. Но можно ли всецело доверять роботам, можем ли мы быть уверены, что они никогда не принимут такого решения, что нанесёт человеку вред? Последним вкладом в разрастающийся спор по законам робототехники, был выход книги: "Обучение роботов отличать добро от зла" .

У этой книги два автора - Уэнделл Уоллах, специалист по этике из Йельского университета, и историк и философ когнитивной науки Колин Аллен, работающий в Университете штата Индиана. В своей книге о законах робототехники они утверждают, что учёные должны сделать роботов ответственными и обладающими моралью. -"Это всего лишь вопрос времени, однажды компьютер или робот принимет решение, которое приведет к человеческой трагедии", говорят они. Так что же необходимо сделать, чтобы минимизировать риски? Уоллах и Аллен предлагают нам новые законы робототехники, приняв которые мы могли бы уменьшить опасность от нашего высокотехнологичного творения.

Нахождение роботов в местах где изначально низок риск развития опасных ситуаций - Прежде чем ставить роботам ту или иную задачу, необходимо убедиться, что всем компьютерам и роботам никогда не придется принимать решение, последствия выполнения которых не могут быть предсказаны заранее. Вероятность успеха этого закона робототехники очень низкая. Инженеры уже разрабатывают компьютеры и робототехнические системы, чьи действия они не всегда могут предсказать. Современные технологии позволяют робототехнике выполнять широкий спектр задач, и круг этих задач будет только расширяться. В целях реализации этой стратегии, пришлось бы прекратить дальнейшее развитие компьютеров и роботов.

Не давать роботам оружие - Вероятность успеха этого закона робототехники минимальная, слишком поздно. Полуавтономные робототехнические системы оружия, включая крылатые ракеты и беспилотные летательные аппараты Predator, уже существуют. Несколько до зубов вооружённых пулеметами роботов были отправлены в Ирак и сфотографированы на поле боя, но видимо всё-же не применялись. Тем не менее, военные стратеги очень заинтересованы в развитии роботов солдат, и рассматривают их как средство сокращения гибели военнослужащих во время войны. Хотя уже слишком поздно, для того чтобы остановить строительство роботов как оружия, но ещё не слишком поздно ограничить их применение только с определённым типом оружия, или ограничить ситуации в которых оружие роботов может быть применено.

Дать роботам законы робототехники как у Азимова - Вероятность успеха средняя. Айзек Азимов расположил свои знаменитые правила иерархически: главное правило - роботы не должны вредить человеку или своим бездействием позволить причинить им вред, второстепенное значение в том что они подчиняются людям, а самосохранение самого робота имеет самый низкий приоритет. Всё-таки Азимов писал фантастику, а не проектировал роботов. В своих романах он не описывает проблемы, которые возникают даже при выполнении этих простых правил. Например, что робот должен делать, когда ему даются противоречивые приказы от двух конфликтующих людей? Правила Азимова плохо выполнимы из-за некоторых трудностей в определении добра и зла. Например, как может робот понять, что злоумышленник режущий человека это не маньяк, а хирург пытающийся помочь пациенту? Всё это довольно наглядно демонстрируют пределы правил основанных на морали. Тем не менее, правила могут успешно ограничить поведение роботов, поставить их в очень ограниченные условия.

В законы робототехники должны быть заложены определённые принципы - Придание роботам мотивации, например сделать "наибольшее благо для наибольшего числа людей", скорее всего это будет безопаснее, чем устанавка упрощенных правил. Вероятность успеха довольно средняя. Имеются пределы и этим базовым установкам, используемым роботом для оценки всех вариантов действий. Например, это может показаться логичным пожертвовать жизнью одного человека, чтобы спасти жизни пяти человек. Но человеческий врач не будет жертвовать здоровым человеком, чтобы вырезать у него здоровые органы для пяти людей, нуждающихся в трансплантации. Будет ли так делать робот? Иногда определить оптимальный вариант под заданное правило чрезвычайно трудно. Например, в определении того, какой курс действий приводит к наибольшему благу, требует огромного количества знаний и понимания последствий своих действий для всего окружающего мира. На создание таких расчетов потребуется время и большие вычислительные мощности.

Обучение роботов, как детей - У машин которые обучаются и как-бы постепенно врослеют, можно развить понимание тех действий, которые люди считают правильными и неправильными. Вероятность успеха довольно перспективна, хотя эта стратегия требует нескольких технологических прорывов. В настоящее время инструментов способных обучать роботов подобно людям почти не существует.

Сделать машины обладающие эмоциями - Человеческие способности, такие как эмпатия, эмоциональность и способность читать невербальные сигналы социального общения, должны дать роботам гораздо большие способности взаимодействия с людьми. Работа в этом направлении уже началась, планируется что домашние роботы в будущем будут обладать такими способностями. Вероятность успеха довольно высокая. Развитие эмоционально чувствительных роботов, безусловно, поможет реализации трех предыдущих законов робототехники. Большую часть информации мы используем, чтобы сделать выбор и сотрудничать с другими людьми. Выбор происходит от наших эмоций, а также нашей способности читать жесты и намерения, представлять события с точки зрения другого человека.

По материалам: newscientist.com

Добавить комментарий