Лаборатория космических исследований

Ульяновская секция Поволжского отделения Российской Академии Космонавтики им. К. Э. Циолковского

Ульяновский Государственный Университет
Три закона роботехники

Как известно, писатель-фантаст Айзек Азимов в цикле своих рассказов «Я-робот» выдвинул знаменитые «Три закона роботехники», которые, по его мнению, должны быть заложены в основу логической конструкции «мозга» любого робота. Вот они:

1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2.Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позже Азимов добавил к ним «нулевой закон»:

0.Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.

Более подробно о них можно узнать, прочитав цикл рассказов А.Азимова «Я – робот», а также, например, вот здесь: http://ru.wikipedia.org/wiki/Три_закона_роботехники

Вчера с одним из соляристов у меня состоялся интересный разговор на эту тему. Дело в том, что ЛКИ и факультет ИФФВТ УлГУ недавно подарили ему книжку А.Азимова «Я, робот» и он решил применить эти три закона к робототехическому конструктору LEGO Mindstorms, с которым он сейчас занимается. Проблемы, на мой взгляд, следующие: можно ли применить три закона к таким простым роботам? и, главное, БУДУТ ЛИ ЭТИ ЗАКОНЫ ВООБЩЕ КОГДА-ЛИБО РЕАЛИЗОВАНЫ?

Не исключено, что автор вопроса (которого, без его разрешения, я пока не буду называть) сам выскажется на этом форуме, у него уже достаточно опыта дискуссий и обсуждений, ведь ему именно сегодня исполняется целых 10 лет! :)
 

Эти законы принципиально неформализуемы. По одной банальной причине - человечество еще не пришло к однозначному разрешению Добра и Зла. Придет - тогда будет, что программировать. Пока одни споры).

Тогда, может быть, правильнее формулировать законы с явным указанием на то, что вред, безопасность и «польза для всего человечества» робот трактует В СООТВЕТСТВИИ СО СВОИМ ПОНИМАНИЕМ этих вещей. Это неявно подразумевается, но нужно обозначить это явно. Чем примитивнее робот, тем примитивнее будет его понимания добра и зла. Интересно, что и в отношениях людей – то же самое. :) Кстати, некоторые исследователи видели в законах роботехники попытку краткого выражения моральных правил во взаимоотношениях людей. Так вот, поскольку разные люди понимают добро и зло по-разному, то даже, если они будут точно следовать законам роботехники, это ни к чему хорошему не приведёт. Нередко ведь мы сталкиваемся с ситуацией, когда человек искренне удивляется: я ведь хотел сделать другому человеку добро, а он меня за это чуть не убил.

Насчет 3х законов, точнее фразы: "Тогда, может быть, правильнее формулировать законы с явным указанием на то, что вред, безопасность и «польза для всего человечества» робот трактует В СООТВЕТСТВИИ СО СВОИМ ПОНИМАНИЕМ этих вещей. Это неявно подразумевается,"

Это ЯВНО говорится в Азимовской серии (в 4й, заключительной, части) http://www.flibusta.net/s/4350 Стоит прочтения.

В каком конкретно произведении это говорится? Под ссылкой http://www.flibusta.net/s/4350 - несколько рассказов.

Обнаженное солнце (http://www.flibusta.net/b/114870/read)
14я глава - первый раз, далее мысль развивается

Поздравляем Михаила Романова с первым юбилеем!
Многое дано сразу: "обещающие" имя и фамилия, высокий умственный потенциал, интерес к исследовательской работе, умение писать рассказы, дар раскованно говорить...
Но жизненный опыт показывает, что только упорный труд может реализовать таланты.
Желаем не "почивать на лаврах", а идти вперёд.

В нашем обсуждении предлагались, например, такие технические решения:
1. если LEGO-робот увидит около человека нечто яркое (огонь) – это робот поймёт, как опасность для человека и бросится выручать человека; а если человек просто прикуривает сигарету?
2. нечто большое по размеру для LEGO-робота будет сигналом опасности; а если это просто стена?
и т.д.

Здесь ведь, на самом деле, встаёт в полный рост религиозно-философский вопрос «О РАЗЛИЧЕНИИ ДОБРА И ЗЛА». Сможем ли мы когда-нибудь формализовать понятия Добра и Зла и заложить их в интеллект робота?