Право и вызовы искусственного интеллекта



alttext

Валерий Зорькин (председатель Конституционного суда Российской Федерации)

Глава КС РФ Валерий Зорькин: Необходим глубокий, в том числе конституционно-правовой, анализ внедрения ИИ на каждом его уровне. 

1. Необходима осторожность

Темпы, которыми ныне меняется наш мир, поражают воображение. Во многом их задает бурное развитие искусственного интеллекта (ИИ или AGI).

В докладе ЮНЕСКО “Об этике робототехники” (2017) названы четыре основные характеристики современного робота: мобильность, интерактивность, коммуникативность, автономность, позволяющая анализировать и самостоятельно принимать решения, осуществлять действия без вмешательства и контроля со стороны человека.

Исследователи Google выделили уровни ИИ: развивающийся, компетентный, экспертный, виртуозный и сверхчеловеческий. ИИ компетентный превосходит 50 % взрослых людей, обладающих квалификацией, в широком спектре умственных задач; а ИИ сверхчеловеческий определяется с порогом в 100 %. ИИ станет соответствовать человеческому интеллекту, скорее всего, к 2040-2080 годам.

 

Темпы распространения ИИ поистине стремительны.

Без помощи искусственного интеллекта человечеству уже не справиться с обработкой накопленной цифровой информации. А она достигла масштабов, аналогичных биологической информации в биосфере (включая содержащуюся в геномах всех людей). С 1980-х годов объем хранящейся цифровой информации удваивался примерно каждые 2,5 года.

 

Уже сейчас искусственный интеллект способен осуществлять действия, ведущие к множеству социально и юридически значимых результатов, может изменять эмоциональную динамику межчеловеческого взаимодействия, развивать зависимость от использования приложений, которые предлагают нереальный, но приносящий удовлетворение опыт (метавселенная), и, заменяя человеческий труд, резко увеличивать социально-экономические разрывы.

ИИ на полных парах проникает в сферу юриспруденции. Разрабатываются платформы и иные цифровые инструменты, которые облегчают нашу профессиональную деятельность за счет выполнения рутинных задач. Это автоматизация типовых юридических услуг и онлайн-сервисы для клиентов с ботами; частичный переход правосудия в онлайн-сферу и разработка типовых решений на основе ИИ, включая конструкторы документов; сервисы проверки контрагента и системы поиска судебной практики, а также иной правовой информации.

Однако в свете невиданных успехов ИИ мы не должны забывать – перед нами совершенно иной тип интеллекта, коренным образом отличный от человеческого.

Это разум, который может полностью игнорировать все, что мы считаем ценностно важным. Сами духовные и крестные отцы ИИ, трубадуры великих преимуществ ИИ предупреждают, что подобная сущность, потенциально более опасная, чем ядерное оружие, может в конечном итоге уничтожить жизнь на Земле. Тревогу бьют представители правительственных структур. Предупреждают и религиозные лидеры.

Стивен Хокинг еще в 2014 году раскритиковал граничащее с капитулянтством широко распространенное безразличие относительно проблемы искусственного интеллекта. “Успех в создании искусственного интеллекта, – сказал он, – был бы величайшим достижением в истории человечества, но, к сожалению, он также может стать последним”.

Риски, объективно связанные с искусственным интеллектом, огромны – от возможных и при этом неконтролируемых искажений в алгоритмах принятия социально значимых решений до лежащих на поверхности рисков неблагоприятных последствий для рынков труда, неприкосновенности частной жизни, физической неприкосновенности (ввиду хотя бы угроз со стороны беспилотных автомобилей), гражданских свобод и даже глобальной безопасности.

А еще с неизбежностью подступают не столь явные, но уже включенные в поле прогностического осмысления возможной будущей реальности проблема возрастающего социального неравенства и расслоения, связанная с “разноуровневым” доступом к возможностям искусственного интеллекта, проблема ослабления индивидуальной автономии через манипулятивное влияние алгоритмов, подталкивающих к предпочтительному поведению и тем самым вторгающихся в святая святых частной сферы – ментальное пространство, проблема сокращения непосредственных межчеловеческих контактов и провоцирование “социальной аутизации”, проблема деградации среднестатистического человеческого разума и возможного наступления “интеллектуального ступора”, если искусственный интеллект даст сбой.

Нельзя забывать и про риски криминального использования. Вспомним о созданных при помощи искусственного интеллекта изображениях, фейковых аудио- и видеозаписях. Эти технологии позволяют легко создавать реалистичные фотографии, видео и аудиоклипы, заменять изображение одной фигуры на другую. У злоумышленников появился невиданный доселе способ дезинформации, когда может быть почти невозможно отличить достоверные новости от ложных. Эти подделки все глубже проникают в политические и социальные коммуникации, опрокидывая нас в перевернутый мир постправды.

Это лишь некоторые из действительно насущных проблем, связанных с использованием искусственного интеллекта и требующих адекватного правового реагирования.

Решение же проблемы контроля осложняется бизнес-гонкой производителей софта (которая может привести к исчерпанию мер предосторожности во имя выпуска программного продукта раньше и дешевле предложений конкурентов). А также использованием искусственного интеллекта в системах вооружения – ведь здесь превыше всего эффективность (решение боевой задачи), но не планетарная безопасность и долгосрочные последствия для всего человечества.

Да и насколько можно быть уверенными в том, что представители биологического вида, устроившего только в последние сто лет две мировые войны, геноциды, множество ужасающих по своей жестокости террористических актов и т.д., надежно запрограммировали машину на верность высшим ценностям? Нередко используется метафора об угрозе, которую может создать человечеству неандерталец, севший за пульт управления пусками ядерных ракет. Но ведь у этой проблемы есть и другое измерение. Связанное с вопросом о том, не станет ли еще большей угрозой человечеству оказавшийся за ракетным пультом хорошо образованный и знающий дело “нравственный неандерталец”?

Не слишком ли далеко мы зашли? Надо понимать, что, когда мы создадим искусственный интеллект, который будет таким же умным, как мы, он в своем развитии вихрем пронесется мимо нас. Электронные схемы функционируют намного эффективнее биохимических, они не устают и гораздо слабее изнашиваются.

Станет ли искусственный интеллект блюсти три закона робототехники Азимова? И достаточно ли будет этого minimum minimorum”а, чтобы обеспечить безопасность людей от неуклонно наращивающих свои когнитивные ресурсы машин?

Не предстанем ли мы в глазах искусственного интеллекта, который будет лучше людей справляться с любой задачей, в качестве чего-то безнадежно устарелого и подлежащего утилизации?

2. О так называемой “личной правосубъектности ИИ”

2.1. До недавнего времени об искусственном интеллекте говорили исключительно как об объекте права. Но сегодня вопрос о возможности наделения правосубъектностью и личными правами того, что еще вчера воспринималось лишь как программа для ЭВМ, вовсю обсуждается в доктрине и практике.

В законодательстве Российской Федерации правовой статус искусственного интеллекта в настоящий момент не определен, однако в доктрине на данный счет сформулированы альтернативные подходы:

– ИИ является объектом права (имуществом);

– ИИ является субъектом права: по модели юридического лица, особый правовой статус “электронного лица”, по модели физического (!) лица.

Все слышнее призывы наделить искусственный интеллект личными правами. Например, в докладе Комитета по правовым вопросам Европарламента ставится вопрос о наделении самых развитых роботов и ИИ особым статусом “электронной личности” с набором определенных прав и обязанностей.

Обсуждаемый вопрос – отнюдь не только технологический и юридико-догматический. Это огромной важности мировоззренческий вопрос, во многом связанный с настоящим и будущим человечества.

Возможно, готовность стереть грань между искусственным и человеческим интеллектом и наделить ИИ правосубъектностью во многом подготовлена кинематографом. Там искусственный интеллект изначально выглядел как человек и в целом мыслил как человек. Ну а в финале испытывал те же эмоции, что и человек, а также научился осознавать последствия своих и чужих поступков. Поэтому в кинематографе грань между человеком и искусственным интеллектом очень быстро стиралась. Однако жизнь от кинематографа отличается. И самым существенным образом.

Тем не менее, как считают сторонники личной правосубъектности ИИ, поскольку, дескать, аксиомой современной теории искусственного интеллекта является аналогия с работой нейронов человеческого мозга, то правосубъектность искусственного интеллекта должна быть схожа с правосубъектностью физических лиц (с некоторыми допустимыми изменениями). В том числе предлагается гарантировать искусственному интеллекту “право на свободу”. Словами немодного ныне классика зададим вопрос: “Свободу для чего? Свободу от чего?”.

2.2. Как известно, правосубъектность – неотъемлемый элемент правового статуса личности. С понятием субъекта права (persona) догма всегда связывала два понятия: волю и интерес. При отсутствии воли и интереса невозможно говорить о какой-либо субъектности ИИ.

Согласно континентальной догме права правосубъектность состоит из трех основных компонентов: правоспособности, дееспособности и деликтоспособности. Схожие положения присутствуют в основных международных документах по правам человека: Всеобщей декларации прав человека (от 10 декабря 1948 г., статья 6), Международном пакте о гражданских и политических правах (от 16 декабря 1966 г., статья 16).

Личными правами может обладать только “личность”. И это не тавтология, но непреложная истина. Идентичность личности слагается из нескольких аспектов, связанных с разными гранями бытия (тело, душа, картезианское Эго и т.д.). Важен также диахронический аспект личностной идентичности, обеспечивающий ее сохранение с течением времени, несмотря на все происходящие с человеком изменения.

Прежде чем наделять правосубъектностью некую неосязаемую сущность, ставя ее наравне с человеком, стоит вспомнить, что человек – существо социальное. И его поведение, проявляющее себя в правоотношениях, формируется той дискурсивной средой, в которой развивается и обитает индивид. Из слов Аристотеля о человеке как по своей природе “общественном (политическом) животном” со всей очевидностью вытекает, что вне и помимо общества и его ценностно-нормативной системы человек становится просто животным.

Можем ли мы утверждать, что искусственный интеллект подобен человеку и обладает неотъемлемым от состояния субъектности в сфере права соответствующим набором практических навыков и стереотипов поведения в обществе, формируемым человеком в рамках всего спектра его социального взаимодействия? Отрицательный ответ на поставленный вопрос очевиден.

Логика защиты конституционной идентичности – а ее сердцевиной является идентичность человека как биологического вида (антропоидентичность) – в сколько-нибудь обозримом будущем должна исходить из исключения возможности обладания какими бы то ни было классами искусственного интеллекта правосубъектностью по модели физического лица.

2.3. Рассуждая прагматически, статус искусственного интеллекта резонно обсуждать в контексте ответственности за ущерб, причиненный в результате его функционирования. В целях гарантирования законных интересов всех субъектов права, участвующих в создании и использовании искусственного интеллекта. Тем более что использование искусственного интеллекта можно с уверенностью отнести к деятельности, связанной с источниками повышенной опасности. Отсюда вытекает необходимость повышенного стандарта публичного контроля, включая обязательность сертификации деятельности искусственного интеллекта в разных областях.

Для привлечения искусственного интеллекта к ответственности нет ровно никаких оснований уже по одной причине отсутствия субъективной стороны – вины как внутреннего психического отношения к совершенному деянию, эмоций как душевного состояния в момент противоправного посягательства. Характерно, что “Национальная стратегия развития искусственного интеллекта на период до 2030 года”, утвержденная 10 октября 2019 года указом Президента РФ, не выдвигает цели наделения искусственного интеллекта субъективными правами и обязанностями.

Добавим, что предложения наделить робота правосубъектностью несостоятельны и потому, что робот не имеет обособленного имущества, принадлежащего на каком-либо вещном праве, из которого впоследствии может быть возмещен ущерб. Робот не способен самостоятельно отстаивать свои интересы, выступая ответчиком по иску потерпевшего (регрессному иску производителя или владельца).

Нет смысла придумывать для программы наказание, негативные эмоции от которого она не будет переживать. Законодатель поступает верно, не создавая очередную юридическую фикцию в виде нового субъекта права. Все, на что будет способна машина, закладывается в нее изначально человеком – ошибка системы есть ошибка ее создателя. Деликтная ответственность за ошибку робота может устанавливаться как общими нормами гражданского права, так и специальными законоположениями, но в любом случае отвечать должен человек – индивид или коллективный субъект (программист, производитель, пользователь и иные лица в зависимости от формы и степени их вины, а также тяжести наступивших последствий).

В обосновании правосубъектности искусственного интеллекта ее сторонниками явно преобладает прагматическая аргументация. И вот уже предлагается закрепить за роботами такие права, как право не быть отключенным (против его “воли”), право на полный и беспрепятственный доступ к своему коду, право не подвергаться экспериментам, право на создание своей копии, право на неприкосновенность частной жизни. То есть практически правовая защита возвышается до степени, предоставляемой человеку. А ведь она несравненно выше предоставляемой материальным объектам (устройствам) или программному обеспечению. Неприкосновенность личности оберегается целым комплексом норм публичного (уголовного, административного) и частного права.

2.4. Категория “правосубъектность” и вообще право – это продукты не просто человеческого сознания; прежде всего они производны от самосознания человека. Он создавал их, познавая на протяжении тысячелетий особенности своего социального поведения, во имя возможно более благополучной коммуникации с себе подобными, исходя из только ему присущих потребностей, не исключая духовных и эмоциональных.

Приведу в этой связи некоторые подсчеты. Человеку (Homo habilis, человек умелый) – 2,8 млн лет. Человеку современного типа (человек разумный, Homo sapiens) – 300 000 лет. Праву как феномену человеческой цивилизации – 5 тысяч лет. Концепции прав человека, если брать отсчет с французской Декларации прав человека и гражданина, – почти 250 лет. Иными словами, право существует менее 2 % времени существования человека разумного. Нам потребовалось 295 000 лет познания своих потребностей, всех благ и рисков социального взаимодействия, чтобы создать такую регулятивную систему, как право. Концепция же прав человека существует 0,5 % от истории права. Вдумаемся в эти цифры. Потребовалось свыше 4700 лет, чтобы сформулировать первичное представление о правах человека. И затем, на протяжении всех последних ста лет, осуществлять “тонкую настройку” этой концепции.

Сопоставьте эти поражающие воображение хронологические интервалы с предложением в одночасье распространить то, что создавалось тысячелетиями, шлифовалось “под человека”, на совокупность технологических решений (именно так определяет искусственный интеллект российское право), которые несут в себе и огромные плюсы, и неизведанные страшные риски.

Не лишне будет также напомнить, что каждое следующее поколение прав возникало в качестве необходимого обеспечения прав, ранее уже признанных. В личной свободе заложены предпосылки предоставления прав, относящихся ко всем дальнейшим генерациям. Не исключая и прав политических. Следовательно, при предоставлении роботам личных прав в дальнейшем не будет веских причин отказывать им в предоставлении прав иных поколений, поскольку это было бы “равносильно дискриминации и рабству”. Так и представляется демонстрация роботов, реализующих право на свободу собраний и требующих предоставления избирательного права.

Кстати, такой эпизод уже воплощен в современном искусстве: в компьютерной игре с характерным названием “Детройт: стать человеком” (Detroit: Become Human). Андроиды, осознавшие свою личность, проходят через город и останавливаются перед полицейским заслоном. Они заявляют свои требования: признание равенства с людьми и предоставление тех же прав. Финал эпизода зависит от выбора игрока, но интересно, что в повествовании явно прочитывается симпатия авторов не к людям, а к “угнетаемым” ими андроидам. Массовая культура, таким образом, также задается вопросом о правах ИИ, и ответ, по крайней мере в данном случае, поддерживает именно ИИ.

В целом признание искусственного интеллекта в качестве субъекта права вступает в неразрешимое противоречие едва ли не со всеми канонами правовой догматики, включая учения об автономной правовой воле, правоотношении, правонарушении и юридической ответственности. У искусственного интеллекта нет и не может быть возможности и способности самостоятельно приобретать и реализовать субъективные права и юридические обязанности, нести юридическую ответственность, самостоятельно принимать правовые решения, у него нет собственных правовых интересов. Наделение же его личной правосубъектностью влечет за собой обширнейшие противоречия и пробелы в праве, позволяющие избежать юридической ответственности виновному лицу за правонарушение, совершенное им в ходе разработки и эксплуатации соответствующих технологий. Для которого, соответственно, переложить ответственность на искусственный интеллект, а для этого наделить его правосубъектностью, видимо, должно быть весьма соблазнительно.

2.5. Придание искусственному интеллекту подобия личной правосубъектности самым роковым образом размывает именно те бинарные оппозиции, на которых, собственно говоря, и базируется человеческая идентичность: “человек против не-человека””, “естественное против искусственного”, “живое против неживого” и “биологическое против механического”.

Философским истоком идеи искусственного интеллекта считается выдвинутая Рене Декартом еще в XVII веке идея дуализма разума и тела, согласно которой человеческое сознание не вырабатывается телом, а автономно от него. Однако методологической подоплекой предложений о предоставлении искусственному интеллекту личной правосубъектности выступают идеи о “децентрировании” понятия человека как субъекта (в том числе как субъекта права) и о случайном, изменчивом и нецелостном его характере, подготовленные деконструктивистской программой постмодернизма. Именно постмодернисты и предрекли “смерть субъекта” как тотальное поглощение человека структурой (начиная от грамматики и заканчивая политическими институтами), которая превращает его в “винтик”, в одну из функций системы. Поскольку структура формирует потребности человека, постольку она растворяет в себе личность.

Отвечая на вопрос о том, может ли машина мыслить, следует признать, что “мысль” искусственного интеллекта – это совсем не то же самое, что работа нейронов человеческого мозга. Это кардинально иная среда, с совершенно другим предназначением и приоритетами, которые для алгоритмов заменяют то, чем для человека являются ценности.

Тем не менее есть сильные сомнения в том, что даже концепция культурного релятивизма постмодерна (увы, ставшая в условиях глобализации преобладающей) может быть хоть сколько-нибудь применима к формируемой искусственным интеллектом информационной среде.

Возможно ли оцифровать человечность, любовь, эмпатию – все то, что слагает нашу идентичность? Отвечаю: нет. А потому мыслительный процесс искусственного интеллекта никогда не будет подобен человеческому.

Предположим, создан робот-спасатель. В результате ДТП один из автомобилей, съехав с эстакады, упал в реку. В машине находились ребенок и его отец. Робот, руководствуясь машинной рациональностью, спасает взрослого, ибо вероятность его выживания по итогам такого рода аварий выше. Именно на это запрограммирован робот. Но так ли поступит в этой ситуации человек, наделенный в отличие от компьютерной программы эмоциональным интеллектом?

Итак, для того чтобы обладать дееспособностью и самостоятельно реализовывать личные права, требуется набор психических свойств. Их отсутствие у искусственного интеллекта хотя и не аксиома, но неопровержимая презумпция. В противном случае ввиду громадных и принципиально непредсказуемых рисков для человечества искусственный интеллект просто не имел бы права на существование.

3. Миражи трансгуманизма

3.1. Главной проблемой является не столько искусственный интеллект как особый источник повышенной опасности. А та зловещая интенция, которая сквозит в попытках его субъективации. Мировоззренческая матрица, порождающая в том числе идеи наделения искусственного интеллекта личным статусом. Имя ей трансгуманизм (иногда, словно в насмешку, именуемый “эффективным альтруизмом”).

Трансгуманизм – одно из самых активно развивающихся общественных движений на Западе. Его многочисленные версии – мощный идейный противник идеологии гуманизма. В 1998 году была основана Всемирная трансгуманистическая ассоциация (WTA), международная организация, которая продвигала трансгуманизм как серьезную академическую дисциплину. В 2008 году WTA переименована в Humanity+, что призвано было знаменовать еще более масштабное видение трансгуманистического “улучшения человека”, его тела и разума. Трансгуманизм нашел горячую поддержку предпринимателей Силиконовой долины, Ларри Пейджа, соучредителя Google, Джеффа Безоса из Amazon и Илона Маска из Tesla.

У Гёте в “Фаусте” искуситель внушает своему собеседнику:

  • Словами диспуты ведутся.
  • Из слов системы создаются.

Обращаю внимание на слова “Из слов системы создаются”. Что за систему создают трансгуманисты для человека и человечества на основе искусственного интеллекта?

Человек, утверждают трансгуманисты, оказался в XXI веке на принципиально новом этапе эволюции, на переходе от Homo sapiens к Techno sapiens. Недалек день, когда чипы памяти и нейронные пути будут встроены в мозг людей, позволяя избежать использования внешних устройств, таких как компьютеры, для доступа к данным и выполнения сложных вычислений. Грань между человечеством и машинами будет становиться все более размытой. Постчеловек, возвещают трансгуманисты, начинается с очков дополненной реальности и достигает окончательного кульминационного воплощения с отделением его разума от физической оболочки (мозга) и загрузкой в кремний, приобретая тем самым ментальное бессмертие.

В этом свете пророческий смысл обретают образы из научной фантастики. От хладнокровно расчетливого ХЭЛ 9000 из “Космической одиссеи” Артура Кларка до незабвенного Терминатора. Впрочем, и роман Мэри Шелли “Франкенштейн” сублимирует испытываемый людьми эпохи промышленной революции страх в ожидании того, что она высвободит титанические силы, неподвластные никакому контролю со стороны человека.

С трансгуманизмом тесно соприкасается и постгендеризм – течение, призывающее к нивелированию половых различий и в перспективе окончательному устранению пола посредством биоинженерии, репрогенетики, вспомогательных репродуктивных технологий.

Можно сказать, трансгуманизм пустил цепкие корни в коллективном бессознательном через жанр супергероев – Железного Человека и Бэтмена, компенсирующих недостаток силы своего человеческого тела при помощи высоких технологий.

И в чем-то трансгуманистические посылы “о высокотехнологичных решениях, навсегда искореняющих страдания в мире” опираются на существующие реалии. Уже сегодня врач может прописать психоактивные препараты, предназначенные для улучшения концентрации внимания. Генетические заболевания предотвращаются с помощью скрининга. Все шире распространяется экстракорпоральное оплодотворение (ЭКО). Очевидно, почти у каждого в этом зале есть гаджет, открывающий возможности, которыми не располагали двадцать лет назад руководители крупнейших держав мира, и т.д., и т.д., и т.д.

3.2. Трансгуманисты утверждают, что именно технический прогресс – лучший шанс человечества на моральное совершенствование. Однако, как учит История, моральное совершенствование, во многом являющееся залогом социального прогресса, не редуцируется к прогрессу технологическому. Эти понятия заведомо неравнозначны, а порой, как показывает, например, зловещий опыт гитлеровского нацизма, прямо противоположны друг другу.

Кредо многих компаний, внедряющих инновации, – “быстро ломай старое и быстро двигайся к новому” – с очевидностью предстает этически ущербным, когда речь заходит о “преобразовании людей”. Необходим скрупулезно выверенный подход, с отчетливым представлением тех опасностей, которых следует избегать. Насколько глубоко искусственному интеллекту позволительно вторгаться в человека, заменять те или иные телесные или ментальные функции? Между тем трансгуманизм втягивает нас в неконтролируемую гонку человеческого и искусственного интеллектов, полностью высвобожденных от всего, что составляет “высокую метафизику” человеческого духа.

Претендуя на то, чтобы стать главной идеологией четвертой промышленной революции, трансгуманизм недооценивает всю сложность отношений человека с технологиями. В них видится лишь управляемый, пластичный инструмент, который можно использовать для достижения любой цели. Однако не учитывается взаимосвязь между технологическими разработками и той самой культурной средой, в которой они возникают и которую они отражают, создавая, в свою очередь, в этой среде новую динамику. Поскольку трансгуманизм расширяет социум за счет включения иных сущностей, положение человека в этом радикально расширенном по своему составу социуме децентрируется.

Умножая сверхбогатство и маргинализацию, высокотехнологические достижения в публично-властной плоскости создают иллюзию некой туманной бесцентричности. Рискнем с немалой долей вероятности предположить, что антропоморфное моделирование статуса искусственного интеллекта инспирировано корпорациями, алчущими сверхприбылей при полной безответственности.

Тем не менее люди, увы, склонны полагаться на уверения технологов в отношении ценностных характеристик, будто бы заложенных в продвигаемые ими продукты. Не исключая искусственного интеллекта.

В онтологическом плане большое беспокойство вызывает не только создание киберсущностей, похожих на нас (искусственный интеллект), но и еще больше стремление сделать человека схожим с машиной (кредо трансгуманизма). Не достижению ли этой заветной цели служит в долгосрочной перспективе наделение искусственного интеллекта правосубъектностью? Эхо донельзя вульгаризованных дарвинистских идей звучит в центральном тезисе трансгуманизма о том, что люди в их “естественном” состоянии устарели, а потому главной целью социального и технологического прогресса является не просто “улучшение человека”, а постчеловек как продукт гибридизации человека и машины.

Так, некий Нил Харбиссон официально признан (решением британского суда) первым “киборгом” на планете с учетом его “органичной интеграции с высокотехнологичными устройствами”: он живет с антенной в голове, чтобы “слышать” цвета.

В этом есть элемент анекдотичности, но то, что мы наблюдаем уже сегодня, ближе даже не к воспеваемой трансгуманистами “гибридизации”, а к колонизации живого человека машинами. Чрезмерное взаимодействие с системами ИИ ведет, как отмечалось, к аутизации, снижению качества межличностного общения и социальных навыков, а в здравоохранении снижает в представителях медперсонала не только столь необходимую в их деле эмпатию, но и ослабляет логическое мышление. Применение “генеративного ИИ” в творческих начинаниях снижает креативность, глубину эмоционального самовыражения художника. По существу, это и есть колонизация – область мозга атрофируется, потому что ее функции были делегированы машине без какой-либо замены.

3.3. Ключевым “моральным императивом” личности в условиях постиндустриального капитализма является потребление. Поэтому истинными архитекторами постчеловеческого будущего во многом выступают бизнес-интересы. В этом плане сосредоточенность трансгуманизма на безграничной “морфологической свободе” человека изменять свое тело представляет собой логический и одновременно трагический триумф консьюмеризма с бесповоротным превращением тела в товар. Объемы индустрии трансгуманизма непрерывно растут. Меж тем специальное правовое регулирование, наоборот, существенно отстает, а по отдельным направлениям и вовсе отсутствует. Практически ничем не регламентируемое развитие нейротехнологий и очень слабо регламентированное  применение технологий генетического редактирования, открывающего дорогу технологиям генетического апгрейда, с очевидностью грозит нарушением основных прав (физическая и психическая неприкосновенность, свобода мысли и даже право на жизнь). Знаменуя собой достигшую пиковых, небывалых в истории человечества, значений коммерциализацию жизни, трансгуманизм, по сути, ведет в XXI столетии к возрождению нового рабства, при котором людей продают уже не как единое целое, а по частям.

Программа межпоколенческой модификации биологии человека через полномасштабное клонирование и технологии селекции эмбрионов помимо морально-этической ущербности представляет собой отход от идеалов гуманизма, социальной справедливости и правового равенства. Трансгуманизм увековечивает комфортный способ существования тех немногих индивидов, которые себе могут такие метаморфозы позволить. В условиях господства идеологии и практики неолиберализма всепоглощающий “рынок” подавляет собой социальное государство. В итоге неизбежным следствием увеличения продолжительности жизни – благодаря внедрению высокоэффективных психофармацевтических препаратов, генетической модификации, интерфейсов мозг-компьютер, нанотехнологий, роботизированного протезирования – станет пропасть неравенства. Не только еще более зияющая, но и вечная.

Реализация программы и идеологии трансгуманистов создает реальную опасность водворения отображенного в антиутопиях всепроникающего социального контроля и тотальной утраты свободной воли. Цифровые медиатехнологии и социальные алгоритмы все более используются не только для прогнозирования поведения людей, но и для управления ими.

В целом, прикрываясь блестками привлекательных лозунгов о пользе биотехнологий и искусственного интеллекта, трансгуманизм на деле неотвратимо подрывает принципы права и справедливости. Столь разные мыслители, как Юрген Хабермас и Фрэнсис Фукуяма, единодушны в том, что трансгуманистические проекты не только аморальны по своей сути, но и угрожают социальному порядку, основанному на верховенстве права.

3.4. Космология трансгуманизма предпочитает иметь дело с человечеством, а не с народами. Устранение национальной самобытности, вызванное вторжением технологий, воспринимается как неизбежность. В связи с этим напомню о том, что стало с нашей страной, когда возобладало “новое мышление”, решающее “глобальные проблемы” за счет национальных интересов.

Главное же, что воплощение трансгуманистического проекта – с опорой на ресурсы искусственного интеллекта – ставит вопрос, схожий с известным парадоксом “корабль Тесея” (суть парадокса: “Если все составные части исходного объекта были заменены, остается ли объект тем же?”). Но намного более драматичный. На какой стадии замены телесных или ментальных элементов, совокупно составляющих человеческую личность, технологическими артефактами (нейроприборами) не только происходит утрата человеком своей идентичности, но и прекращается его принадлежность к исходному биологическому виду?

Искусственный интеллект и его внедрение могут фатально изменить представление людей о самих себе, привести к распаду человеческой идентичности.

В этой связи весьма актуален вопрос о конституционно приемлемых рамках имперсонификации (вживления) искусственного интеллекта, когда его носители становятся частью человека. Ввиду угроз, нависших в свете бурного и непредсказуемого развития кибертехнологий (в особенности ввиду трансгуманистической инструментализации таковых) над человеческой идентичностью, ее слагаемые будут все более охватываться понятием “конституционная идентичность”. Ведь, как известно, качественный состав конституционной идентичности динамичен, вбирает ценности и институты, нуждающиеся в том числе в приоритетной конституционно-юрисдикционной защите.

Быть может, в уже совсем недалеком будущем не только законодателю, но и конституционному правосудию предстоит определить, какие именно аспекты личности – во имя сохранения идентичности человека как базиса конституционно-правовой идентичности – следует оставить неприкосновенными от воздействия нейротехнологий. Уже сегодня нужно обеспечить, чтобы достижения в этой области соответствовали духу недавней Рекомендации ЮНЕСКО “Об этике искусственного интеллекта” (2021).

3.5. Нередко и, заметим, небезосновательно идеи и практику трансгуманизма сопоставляют с чудовищными нацистскими экспериментами по “улучшению расы”. Генетическое редактирование ставит серьезнейшие этические дилеммы. Уже сейчас идет применение технологии CRISPR, которая предполагает вырезание и вставку определенной последовательности ДНК в геном живого организма с последующим изменением фенотипических признаков. В целом трансгуманизм провоцирует на столь далекий отход от естественной траектории эволюционного пути развития, который не позволяет даже приблизительно просчитать все возможные последствия, а среди них могут быть весьма и весьма неблагоприятные.

Человеку вообще не слишком свойственно уважительное отношение к биосфере. Экологические проблемы красноречиво об этом свидетельствуют. Антропогенное опустошение окружающей среды показывает, что даже самые благие планы с опорой на передовые технологии нередко ведут к пагубным последствиям и для тех, с кем мы делим планету, и для нас самих. Осуществление трансгуманистических замыслов значительно увеличивает риск уничтожения человечества – физического (катастрофы, спровоцированные искусственным интеллектом) или онтологического (разрушение человеческой идентичности).

Десятилетия постмодернистской пустоты и засилья деконструктивизма не прошли даром. В результате перед лицом трансгуманистического морока мир оказался духовно и концептуально обезоруженным.

Миражи трансгуманизма, включая всесилие искусственного интеллекта, влекут всех тех, кто ставит на “непредсказуемое саморазвитие” и рискованные эксперименты с идентичностью человека путем спорадических изменений в верованиях, языках, домах, обычаях, профессиях, социальной принадлежности и партнерах.

Являясь последней стадией секуляризованного гуманизма, трансгуманизм диалектически олицетворяет его распад, выступает отрицанием подлинно гуманистических начал, обоснованных и реализуемых в эпоху Просвещения. Трансгуманизм оспаривает непререкаемые для классического гуманизма истины, согласно которым: природа человека является венцом творения, будучи универсальным состоянием, вне и помимо которого невозможно существование личности; природа человека целостна, автономна, рациональна и предполагает свободу воли. А права человека существуют для трансгуманиста в одном спектре с правами животных и уступают по своему значению правам грядущего постчеловека.

Идеи трансгуманизма, не признающие ни вечных истин, ни связи человека с Божественным началом, обрекают человечество на продолжение блужданий в миражах и болотных туманах постмодернистского цинизма и аномии. По существу, трансгуманизм в конечных своих выводах означает самопрекращение человечества как биологического вида.

Продвигая евгенику и нейротехнологии, трансгуманизм вступает в неразрешимое противоречие не только с гуманистическими нравственными и правовыми ориентирами, но и с глубинными религиозно-нравственными установками. При этом, как ни парадоксально, теневой аспект трансгуманизма – это крипторелигиозность. Вслушиваясь в доносящиеся из Силиконовой долины мантры о великой миссии искусственного интеллекта, слышишь искаженные техноцентризмом отголоски религиозных чаяний. Большая часть восторженных предвкушений по поводу создания машинного сверхразума сводится к переработанным религиозным идеям.

Ныне трансгуманисты обещают нам, что технологии помогут восстановить человечеству абсолютное совершенство, и утверждают обязанность неустанного стремления к научно-техническому прогрессу вплоть до достижения человеком его богоподобного предназначения – “эффективно служить Богу, став Богом”.

Поскольку трансгуманизм – это суррогат веры, где место всемогущего Бога заняла химера искусственного “сверхразума”, постольку технический прогресс при этом выступает синонимом морального прогресса. Более того, высокие технологии отождествляются трансгуманистами с трансцендентностью, ранее неотъемлемо связанной с христианской идеей искупления. По их убеждению, после восстановления через кибертехнологии изначального совершенства для человечества должно наступить Царство Божие на земле. Но не то ли это самое “царство” и не тот ли его хозяин, о которых предупреждал Фёдор Достоевский в “Легенде о Великом инквизиторе”?

И, кстати, совсем не исключено, что сыр-бор, поднятый с наделением искусственного интеллекта правосубъектностью, включающей элементы правосубъектности человека, лишь дымовая завеса, призванная впоследствии облегчить легализацию Homo novus трансгуманистического будущего – киборгов и генетических мутантов.

Квазирелигиозный аспект трансгуманизма не может быть охарактеризован в качестве безобидной “светской веры” или “мягкой религиозности”, отвергающих обрядность, но базирующихся, как и религия, на признании трансцендентности человеческого состояния. Трансгуманистские замыслы приходят в явное столкновение с Божественным замыслом о создании человека по образу и подобию Божьему и о человеческом теле как храме. Поневоле приходят аналогии с библейской притчей о Вавилонской башне – историей о человеческой гордыне, достигшей высот богоуподобления, и о ее наказании. Не говоря уже о том, что обещания превзойти смерть обессмысливают ключевой христианский догмат об искуплении и спасении. Мировоззренческую сердцевину трансгуманизма составляет так называемый “титанизм” – активное наступление на устои традиционных религий во имя “нового этического контракта”. Попросту говоря, демоническое богоборчество, которое, быть может, еще коварнее богоборчества открыто атеистического.

4. Правовая перспектива

4.1. Многозначителен подзаголовок “Франкенштейна” – самого позднего готического романа ужасов и, пожалуй, первой трансгуманистической антиутопии – “Современный Прометей”. Главный герой начал игру с силами, всю мощь которых он не до конца понимал. И в конце концов пал их жертвой. Не готовит ли эту участь уже для всего человечества то трансгуманистическое будущее, которому пролагает дорогу наделение искусственного интеллекта самостоятельной правосубъектностью?

Лихорадка искусственного интеллекта, охватившая сначала Силиконовую долину, а затем и весь мир, не спонтанное явление. Адаптированные религиозные идеи – в обличье трансгуманизма, “эффективного альтруизма” и улучшения будущего человечества – усилили социальное и идеологическое давление в пользу всемерного распространения искусственного интеллекта. Что же касается давления экономического, то стремление к сверхприбыли никогда не переставало быть главным мотивом флагманов высоких технологий.

Ответ на технологические сверхвызовы, очевидно, не в том, чтобы позволить искусственному интеллекту разгуляться и в конечном счете высвободиться из-под контроля создателя-человека. И не в том, чтобы нам самим стать киборгами, то есть частично машинами, дабы иметь возможность подключаться к искусственному интеллекту и устремляться вслед за ним, куда бы он нас ни вел. И не в том, чтобы наделить искусственный интеллект личными правами. Ведь все это создает предельно комфортные условия для антигуманного и аморального трансгуманистического будущего без Человека.

Так из чего же, обобщая вышесказанное, нужно исходить с позиций Права, встречая не только будущее, но и настоящее, уже пронизанное искусственным интеллектом?

Искусственный интеллект не является носителем критически важных составляющих личности (души, свободного сознания, чувств, интенциональности, личных интересов). Поэтому, несмотря на сверхмощную скорость обработки информации, в разы превосходящую возможности человека, искусственный интеллект остается программой с привязанным к ней материально-техническим обеспечением.

А потому – и онтологически, и прагматически – предпочтительнее всего конструировать правовое положение искусственного интеллекта исходя единственно из обеспечения безусловной безопасности и эффективной ответственности за причиненный при использовании этой технологии ущерб. Оба эти критерия, во-первых, определяют статус искусственного интеллекта в качестве объекта, а не субъекта. А во-вторых, не предполагают за ним самостоятельной деликтоспособности. Как бы это ни было технически сложно, но, в конечном счете, всегда есть возможность идентифицировать субъекта, то есть физическое или юридическое лицо, на которое должна быть возложена ответственность за ущерб, возникший в результате производства или применения искусственного интеллекта. Упрощению соответствующих разбирательств, административных и судебных, могут помочь проверенные механизмы распределения ответственности, освобождения от ответственности, обязательного страхования ответственности, а также выработка и последовательное применение соответствующих стандартов доказывания.

Оставим цивилистам исчерпывающий ответ на вопрос об уместности конструирования при помощи фикции (подобно тому, как было сконструировано понятие юридического лица) нового субъекта права – “электронная личность”, “цифровое лицо” и т.д. Главное, чтобы такого рода конструкции не поощряли безответственность конкретных юридических и физических лиц, вовлеченных в создание и использование искусственного интеллекта. Но повторю еще раз: в конституционно-правовом контексте однозначно неприемлемо конструирование правосубъектности искусственного интеллекта по модели физического лица – человека. Ведь человек – это нечто большее, чем плоть и нейроны. Эмоционально-психологические состояния, а попросту говоря, чувства человека делают его существом, отличным и от любого из его собратьев, и от всех других живых существ во Вселенной.

С учетом сказанного постановка вопроса о сколько-нибудь автономной правосубъектности искусственного интеллекта не то что преждевременна, но, будучи своего рода троянским конем трансгуманизма, в конституционно-правовом плане принципиально неприемлема. Признать особый правовой режим (правовое положение) роботов, наверное, нужно. Однако новеллы не должны носить революционный характер, они должны быть целесообразными, то есть строго оправданными действительными потребностями общества, научно проработанными, а не вдохновленными идеологемами с двойным и даже тройным дном.

Те, для кого идеалы гуманизма и права не пустой звук, не могут не исходить из того, что социальные и экологические проблемы настоящего и, очевидно, будущего (включая безработицу и истощение ресурсов) могут быть решены без вторжения в самое сокровенное человеческой идентичности. Путем сбалансированного сочетания социально-политических, правовых и технологических решений.

Торонтская Декларация о машинном обучении (16.05.2018) обозначает три основных направления правового воздействия на процессы разработки и применения искусственного интеллекта.

Первое – предотвращение дискриминации при разработке и внедрении автоматизированных систем, формирующих базы данных, на основе которых затем принимаются социально значимые решения.

Второе – обеспечение действенной ответственности разработчиков, производителей и крупных пользователей искусственного интеллекта за противоправное обращение с ним.

Третье – эффективное предотвращение иных нарушений прав человека посредством искусственного интеллекта, включая недопущение какого-либо ограничения доступа к услугам и гарантиям лиц, принадлежащих к социально уязвимым категориям. Очевидно, именно на этих направлениях должны быть сосредоточены усилия юридического сообщества.

4.2. Разумеется, из сказанного не вытекает призыв вернуться к временам, когда, как говорится, “Адам сеял, а Ева пряла”. Я вовсе не склонен демонизировать голосовой помощник “Маруся”, навигаторы в автомобилях, электронные переводчики, чат-боты, различные – и весьма небесполезные – приложения для смартфонов, программу “Умный дом” и роботы-пылесосы.

Мы – за развитие искусственного интеллекта. За то, чтобы его колоссальные аналитические возможности помогали человеку во многих областях его деятельности. Но законодательное регулирование искусственного интеллекта и в особенности конституционное право должны, образно говоря, возводить глубоко эшелонированную оборону от тех немалых рисков, которыми чревато использование искусственного интеллекта. А не предлагать условия “почетной капитуляции”, устанавливая в порыве трансгуманистической эйфории немыслимые – с точки зрения и догмы права, и элементарного здравого смысла – “гарантии” искусственному интеллекту вплоть до наделения его личными правами.

С одной стороны, начиная от изобретения колеса с железным топором до появления анестезии и искусственного сердечного клапана люди во все времена искали способы преодоления соматических ограничений, дабы улучшить качество жизни. Но, с другой стороны, является ли проповедуемое трансгуманизмом естественным движение по этой траектории, позволяющее расширять не только наши физические возможности, но и когнитивные и эмоциональные способности? Или же, внедряя нейротехнологии и репрогенетику, мы оказываемся на пороге фатальной утраты своей человеческой идентичности?

Время нельзя повернуть вспять. И большинство вопросов по поводу пугающих возможностей искусственного интеллекта связано не с вопросом “если”, но, как бы мы к тому ни относились, с вопросом “когда”. Если не произойдет чего-то совсем драматичного, наука и технологии всегда будут двигаться вперед. Однако это вовсе не означает, что нам – имея в виду профессиональное сообщество юристов – надо бежать впереди паровоза и бесшабашно создавать для искусственного интеллекта статус persona gratissima.

Более чем вероятно, что подобное моделирование правосубъектности на деле обернется лазейкой для злоупотреблений со стороны отдельных бенефициаров искусственного интеллекта. И, что еще страшнее, непоправимой брешью в защите человечества от киберугроз.

В условиях непрестанного проникновения искусственного интеллекта буквально во все сферы – в том числе с учетом все более усиливающейся конвергенции юридического и технического знания – правовое регулирование должно способствовать максимальной диверсификации выбора технологических решений. Для того чтобы поставить заслон на пути неправомерного использования высоких технологий и обеспечить действенный контроль за таковым, включая беспрепятственную и не влекущую катастрофических последствий возможность полного отключения искусственного интеллекта в чрезвычайной ситуации.

Тем самым моделирование правового статуса искусственного интеллекта должно базироваться на двух краеугольных принципах. Во-первых, на принципе защиты прав и свобод человека, в том числе права на труд, а также создание благоприятных условий для адаптации человека, не отягощенного специальными инновационными компетенциями, к цифровой экономике. Во-вторых, на принципе безопасности через противодействие противоправному использованию искусственного интеллекта, а также предупреждение рисков негативных последствий даже правомерного использования соответствующих технологий.

Не будем спорить с трансгуманистами: экзоскелеты и эндоскелеты действительно расширяют физические возможности человека, позволяя преодолевать “биологические ограничения” и конкурировать с роботами, управляемыми искусственным интеллектом. Но величайшее достижение человеческой цивилизации – право – не должно низводиться до уровня “подпорок” трансгуманистических проектов. Не должно ослаблять нашу защищенность от того, что, наряду с атомной энергетикой, является одновременно и несравненным благом, и колоссальной опасностью для человечества.

Предстоит кропотливая работа по выстраиванию конституционно-правовых рамок для так называемого “сильного искусственного интеллекта” исходя, в первую очередь, из незыблемости человеческой идентичности и безопасности человечества.

***

В заключение подчеркну то, что уже звучало многократным рефреном: жизнь не повернешь назад. Никто не призывает придерживаться голого запретительства в отношении новейших технологий. Но ни на минуту нельзя забывать, что перед нами путь, который, прибегая к образам знаменитого суриковского полотна, по своей сложности сравним с переходом через горные кручи, заснеженные, обледенелые, неприступные. И путь этот – сопоставимый по своей рискованности со штурмом даже не снежных Альп, но Гималаев – надо пройти с возможно меньшими потерями.

Это требует от правового обеспечения не бросков очертя голову в головокружительные пропасти, но максимальной продуманности и осторожности. Двигаясь по этому пути, все мы – и нормотворцы, и правоприменители, юристы инхауса и консалтинга, а также некоммерческих организаций – должны просчитывать все мыслимые последствия. Своевременно продвигаться, иначе “промедление смерти подобно”. Притормаживать, используя для опоры, как и суворовские чудо-богатыри, все, что мало-мальски для этого пригодно. Сознавать гибельность любого опрометчивого движения, а потому взвешивать каждый шаг.

Вспомним вещие слова великого русского мыслителя: “Технические науки открывают перед ним [человеком] чрезмерные возможности, которые человек не успевает ни продумать, ни подчинить высшим целям своей жизни. Материально – современный человек может слишком много; душевно – слишком мало; духовно – почти ничего” (И.А.Ильин). Возможно, высшая миссия права и юриспруденции, наряду с этикой, философией, социологией и богословием, как раз и состоит в обеспечении того, чтобы и в регулировании искусственного интеллекта, и в применении этого регулирования материальное непременно соотносилось бы с душевным и духовным.

Необходим глубокий, в том числе конституционно-правовой, анализ внедрения искусственного интеллекта на каждом его уровне, рассматривая все возможности и последствия. Потому что в конечном итоге даже относительно маловероятный исход приобретает жизненно важное значение, если он влияет на наше будущее как биологического вида (формы жизни).

В этом и заключается ответ права на вызовы эры искусственного интеллекта.

Российская газета.