Березин Сергей Николаевич : другие произведения.

Моральная ответственность роботов

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками
  • Аннотация:
    В статье изучается, при каких условиях роботы могли бы быть морально ответственными перед людьми. Одно из отличий роботов от людей заключается в способе создания кодов для программ поведения. Робот сможет писать программы только через дискретные операции, а человек - холистически, как продолжение холизма организма, что ведет к моральным следствиям для людей, но не для машины, пусть даже с искусственным интеллектом. Впервые статья была опубликована на странице Постфеноменология 22 апреля 2020 года.


   При каких условиях мы можем сказать, что робот поступил хорошо или плохо? Роботы реализуют заложенные в них программы. Если в результате функционирования автомата пострадает человек (люди) или какие-либо объекты, мы же не сможем сказать, что это плохой поступок, мы даже не сможем сказать, что это поступок. Поэтому нужно установить, при каких условиях функционирования робот действует – совершает поступки.
  
   При каких условиях мы можем сказать, что робот поступил хорошо или плохо? Роботы реализуют заложенные в них программы. Если в результате функционирования автомата пострадает человек (люди) или какие-либо объекты, мы же не сможем сказать, что это плохой поступок, мы даже не сможем сказать, что это поступок. Поэтому нужно установить, при каких условиях функционирования робот действует – совершает поступки.
  
   Чтобы совершать поступки, робот должен менять заложенные программы. Иначе это будут поступки программистов и проектировщиков. В агрегат можно заложить функции обучения. Если в результате обучения машина будет функционировать с ошибками, то это опять же ошибки создателей.
  
   Здесь возникают те же вопросы, что и с человеком. Люди – это биологические существа, в которых заложены генетические программы, а другие программы мы создаем сами или копируем из популяции. Есть правила дорожного движения – это программа поведения. Ее можно нарушить. А вот робот свои программы не нарушает, может возникнуть сбой. У человека тоже может возникнуть сбой, например, аффект. Но тогда действия человека не рассматриваются как поступок.
  
   Правила дорожного движения – это сложная программа поведения. Для ее усвоения необходимо связывать поступающие данные со своими действиями. Здесь возможно два подхода: лингвистический и феноменологический. Примером лингвистического решения может быть концепт языковых игр, связывающий действия с поступающими данными через язык. Витгенштейн пишет: «если кто-то спросит меня, как такой-то цвет называется по-немецки, и я отвечу, а он спросит: "Вы уверены?" – я отвечу: "Я знаю это. Немецкий – мой родной язык"» [Витгенштейн 2010, 220].
  
   Д.Макдауэлл предложил проект минимального эмпиризма [McDowell 1994, xi]. "То, что вещи такие-то и такие – это концептуальное содержание опыта, но только если субъект опыта не ошибается, это то же самое, что вещи такие-то и такие – это факт восприятия, аспект воспринятого мира" [McDowell 1994, 26]. Макдауэлл принимает разделение на причинно-следственные отношения, присущие природе, и пространство обоснования (the logical space of reasons), характеризующее убеждения человека [McDowell 1994, 70-72]. Резоны позволяют человеку усваивать правила поведения и создавать новые программы. Например, для обоснования следования сигналам светофора, можно сказать, что нарушение правил приведет к травмам или смерти.
  
   С тем, что опыт всегда концептуально нагружен, не согласился Х.Дрейфус [Dreyfus 2013, 36]. Он предложил феноменологическую интерпретацию научения и восприятия. В качестве иллюстрации своей позиции Дрейфус приводит пример с футболом. Поле для игрока проникнуто силовыми линиями, разделено на области, предполагающие разные действия. Однако ему можно возразить. Концептуальная нагруженность научения не исключает дальнейших действий без акцента на язык.
  
   В этом споре можно предложить третье решение – программное. Ребенок на футбольном поле, который впервые знакомится с этой игрой, не видит никаких силовых линий, не выделяет никакие области действий. Чтобы так воспринимать пространство, необходимо обучение. Это обучение может происходить как с использованием слов, так и без. И в том, и в другом случае, отношение к мячу, игрокам и пространству создается. Выделение различных отношений позволяет усваивать алгоритмы действий в рамках игры. Футбол – как программа поведения – записывается с помощью кода, который связывает поступающие данный с реакциями игрока. В коде можно выделить алфавит и правила записи. Алфавит – это те отношения и линии напряжения, с которыми человек связывает свои реакции.
  
   Красный сигнал светофора в ПДД означает, что нужно стоять, а зеленый – идти. Чтобы человек соотносил свои действия со светофором, необходимо создать для этого алфавит, выделяющий цвета, с помощью которого записывается программа поведения. Правила записи – это соединение алфавита и реакций организма. Алфавит – как выделение качественных характеристик опыта (qualia) – дает преимущество в естественном отборе, т.к. с его помощью можно записывать новые программы поведения, переписывать старые, что ведет к большей вариативности реакций.
  
   Отличие программного подхода от феноменологического в том, что можно использовать язык для создания кода, выделения характеристик, необходимых для записи программ. А отличие от лингвистического – язык не является необходимым условием для научения. Некоторые животные, не имея языка, все же создают новые программы, а другие затем перенимают их из популяции. Например, в 1979 г. у одной из популяций японских макак впервые зафиксировали применение молодой самкой камня для раскалывания орехов [Цит. по: Удалова 2013, 12]. Затем этот навык распространился от молодых особей к старшим. Через 20 лет этой техникой владело уже 80% популяции.
  
   Для научения говорению тоже необходимо создать код. Дети (в конкретный период жизни) не просто копируют речь взрослых, как это может сделать попугай. Они создают код для программы говорения. И это может быть любой естественный язык. От этого кода зависит и выделение качеств. Например, в японском языке синий и зеленый - оттенки одного цвета. А для испанца звуки [б] и [в] слышатся одинаково. Язык – это лишь пример программы, в которой чувственные данные являются элементом кода.
  
   Можно сконструировать робота с искусственным интеллектом, который генерировал бы различные коды для создания новых программ поведения. Но эти коды не были его в том же смысле, в каком код принадлежит человеку. Человек – как организм – холистичен. И код он создает холистически, как отношения между элементами алфавит и их связь с действиями организма. А робот – это агрегат, он создавал бы код как дискретные элементы. Если робот будет создавать код для поездки на велосипеде, он будет подгонять одну операцию к другой. Человек же пока не "схватит" воедино разные действия и восприятие – не создаст код для программы – не поедет.
  
   Создание человеком кода для езды на велосипеде – это понимание, как ездить на велосипеде. Если какой-либо человек будет копировать действия других, а не создаст код для новой программы, то не будет и понимания. Например, можно зазубрить речь преподавателя физики и ее повторять. Но если для этих данных человек не создаст тот же код, используемый в этой дисциплине, это будет простое копирование, а не новая программа обработки данных. Робот, не создающий код холистически, не понимает действий. Он не выделяет качественные отношения между элементами алфавита и действиями, записанными в программу, т.е. не понимает, как одно связывается с другим.
  
   Кроме отсутствия понимания, как осуществляются программы, робот не может быть частью общей среды для распространения кодов. Когда конкретный человек создает новый код, чтобы переписать программу, любой другой может скопировать это поведение. И дальше новая программа может распространиться. Это цифровой вариант категорического императива Канта ("Поступай так, чтобы максима твоей воли могла в то же время иметь силу принципа всеобщего законодательства" [Кант 2007, 147]). Человек поступает хорошо, если распространяет желаемый код, и плохо - если он не хочет, чтобы код его поступка распространился. Оценивать поступок человека можно и интуитивно – через согласие или несогласие с используемым кодом.
  
   Получается, что роботы не могут быть морально ответственными по нескольким причинам. Во-первых, они реализуют заложенные в них программы и не могут их переписывать. Во-вторых, если бы роботы могли переписывать программы, они бы делали это через дискретные операции, поэтому новые коды, как и старые, не были бы следствием холизма. А значит, у робота не будет понимания действий. В-третьих, люди и роботы не могут быть общей средой для распространения кодов. Например, робот бессмертен. Его всегда можно восстановить. А человеку нужно учитывать, что он может умерить или просто покалечиться.
  
  

Библиография

  
   Dreyfus 2013 — Dreyfus H. The Myth of the Pervasiveness of the Mental // Joseph K. Schear (ed.). Mind, Reason, and Being-in-the-World: The McDowell-Dreyfus Debate. Routledge: New York, 2013. P. 15-40
  
   McDowell 1994 — McDowell J.H. Mind and World. Cambridge, MA: Harvard University Press, 1994.
  
   Витгенштейн 2010 — Витгенштейн Л. Культура и ценность. О достоверности. / Пер. с англ. Л. Добросельского — М.: ACT: Астрель, 2010.
  
   Кант 2007 — Кант И. Критика практического разума. СПб: Наука, 2007
  
   Удалова 2013 — Удалова Г.П. Культурные традиции и социальное обучение у приматов // Цикличность: динамика культуры и сохранение традиции: Сборник научных трудов семинара "Теория и методология архаики". СПб.: МАЭ РАН, 2013. С. 8-34.
  
  
  
  


Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"