AnatTs (sted_ats_02) wrote,
AnatTs
sted_ats_02

Category:

Можно ли научить этике?

Сообщается, что разработчики роботов в своем эксперименте запрограммировали робота так, чтобы тот предотвращал падение «человека» в яму. Это упрощенная версия знаменитого «Первого закона робототехники» Айзека Азимова — робот не должен позволить, чтобы человеку был причинен вред. Сначала робот успешно справился с задачей. Как только «человек» двинулся в сторону ямы, робот бросился к нему, чтобы вытолкнуть его с опасного пути. Но когда убыл добавлен второго «человека», который двигался к яме одновременно с первым, робот был вынужден выбирать. Иногда ему удавалось спасти одного «человека», позволяя другому погибнуть, а иногда ему даже удавалось успеть спасти обоих. Но в 14 случаях из 33 робот «впадал в ступор» и терял столько времени в размышлениях, что оба «человека» успевали упасть в яму.


Разработчики говорят, что хотя робот может спасать других в соответствии с запрограммированным алгоритмом поведения, он не понимает причин своих действий. По словам инженеров, у нас до сих пор нет ответа, можно ли обучить робота этике. Но в рамках дальнейшей интеграции роботов в нашу повседневную жизнь, на этот вопрос обязательно нужно будет ответить. Например, автомобили с автономным управлением должны уметь оценивать безопасность своих пассажиров применительно к риску причинения вреда другим водителям или пешеходам. И это может быть очень трудным выбором.

Однако, как оказалось, военные роботы, могут подсказать решение. Рональд Аркин из Технологического института Джорджии (США) разработал набор алгоритмов для военных роботов, который должен помочь им принимать более взвешенные решения на поле боя. Он уже опробовал свою разработку в постановочном бою, продемонстрировав, что беспилотники с такой программой пытаются обойтись без стрельбы или свести к минимуму потери во время боя в таких гражданских объектах, как школы или больницы. Аркин говорит, что роботы, обученные этике, станут невероятно эффективными, к тому же, «в отличие от солдат, которые могут находиться под влиянием эмоций и нарушать приказы, роботы этого делать не будут».
Tags: роботы
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 0 comments