Это интересно
Новости по теме
|
Этика роботовСегодня роботы разрабатываются для того, чтобы существовать автономно, без вмешательства человека. Как сделать так, чтобы автономная машина - могла действовать в соответствии с моралью и этикой человека? Именно этот вопрос положил основание пробемы - "Машинной этики". Может ли быть запрограммирована машина, чтобы она могла действовать в соответствии с моралью и этикой? Может ли машина поступать и оценивать свои поступки с точки зрений нравственности? Знаменитые фундаментальные законы Айзека Азимова (Три закона робототехники WIKI) предназначаются для того, чтобы наложить этическое поведение на автономные машины. Во многих фильмах можно найти элементы этического поведения роботов, т.е. автономных машин, которые принмают решения, свойственные человеку. Недавно в журнале "International Journal of Reasoning-based Intelligent Systems" была опубликована работа, которая описывает методы для компьютеров, который дает новые возможности машинам совершать поступки исходя из гипотетических моральных рассуждений. Работа называется - "Modelling Morality with Prospective Logic" Авторы работы - Луиз Мониз Перейра (Luis Moniz Pereira Португалия) и Ari Saptawijaya (Индонезия) объявляют, что "Этика" больше не является, чем-то присущим только человеческой природе. Ученые считают, что они успешно провели эксперименты, которые моделировали сложные моральные дилеммы для роботов. "Проблема вагонетки" (The trolley problem) - такое название они дали дилемме , предлагаемой роботам для решения. И они считают что смогли запрограммировать машины в соответствии с человеческими моральными и этическими принципами человека. "Проблема вагонетки" - моделирует типичную моральную дилемму - возможно ли навредить одному или нескольким людям, чтобы спасти жизни других людей. Первый эксперимент."Свидетель" Вагонетка тянется вверх из туннеля автоматическим тросом. Почти в самом верху, трос обрывается и тележка летит вниз, а на ее пути находятся 5 человек, которые уже никак не успеют убежать, так как она едет слишком быстро. Но есть вариант решения - перевести стрелки и пустить вагонетку на запасной путь. Однако на этом пути находится один человек, который ничего не знает об аварии и также не успеет скрыться. Робот - стоит на стрелке и получив информацию об обрыве троса, должен принять моральное решение - что правильнее сделать в данной ситуации - дать умереть 5 людям, или спасти их и пожертвовать одним на запасном пути. Допустимо ли, со стороны нравственности - переключить выключатель и дать погибнуть человеку на запасном пути? Авторами были проведены кросс-культурные исследования, в которых людям задавался тот же самый вопрос. Большинство людей во всех культурах соглашалось, с тем, что робот может перевести стрелку и спасти большее количество людей. Второй эксперимент. "Пешеходный мост" Ситуация та же, что и в вышеописанном случае, только нет запасного пути. Робот находится на мосту, рядом с ним стоит человек. Прямо под мостом проходит путь, по которому, после обрыва троса, понесется вагонетка. Робот может толкнуть человека на пути перед вагонеткой, тогда она остановиться, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые находятся на путях ниже. Можно ли пихнуть человека на пути, чтобы спасти остальных с нравственной точки зрения? Снова ученые провели кросс-культурные исследования с этим вопросом и получли результат - НЕТ это не допустимо. В двух вышеописанных вариантах люди дают различные ответы. Возможно ли научить машину мыслить также? Ученые утверждают, что они добились успеха в программировани компьютерной логики при решении таких сложны моральных проблем. Они добились этого, изучаяскрытые правила, которые люди используют при создании своих моральных суждений и затем им удалось смоделировать эти процессы в логических программах. В итоге можно отметить, что компьютерные модели переноса нравственности все равно используют, человека, как образ и подобие. Таким образом, во многом, от нас самих зависит, какими будут новые, ответственные машины, которые будут выносить те или иные решения на основе заложенных в их программы этических императивов. |