Richard Serra, Inside Out, 2013

Если работа британского ученого Алана Тьюринга о «мыслящих машинах» была приквелом к тому, что мы сейчас называем искусственным интеллектом, то бестселлер покойного психолога Дэниела Канемана «Думай медленно… решай быстро» мог бы стать сиквелом, учитывая представление самого Канемана о нашем мыслительном процессе. И понимание «нас» будет иметь решающее значение для регулирования «них».

21 марта ООН единогласно приняла знаковую резолюцию (инициированную США), призывающую международное сообщество «управлять этой технологией, а не позволять ей управлять нами». Это произошло сразу после принятия закона Евросоюза об ИИ и Декларации Блетчли о безопасности в сфере ИИ, которую более 20 стран (большинство — страны с развитой экономикой) подписали в ноябре прошлого года. Более того, обсуждение подобных мер на национальном уровне продолжается во многих странах, в том числе в США, где президент Джо Байден издал указ о «безопасной, надежной и заслуживающей доверия разработке и использовании» ИИ.

Все эти усилия представляют собой ответ на гонку ИИ, которая началась с публичного запуска ChatGPT компанией OpenAI в конце 2022 года. Фундаментальной проблемой остается тот факт, что цели ИИ и выбранные средства их достижения могут не соответствовать человеческим целям и быть даже несовместимыми с ними (так называемая проблема согласования, alignment problem). Новые инструменты ИИ также могут быть использованы злоумышленниками — от мошенников до пропагандистов — для углубления и усиления ранее существовавших форм дискриминации и дезинформации, нарушения конфиденциальности; кроме того, это может приводить к сокращению рабочих мест.

Самая крайняя форма проблемы согласования — это экзистенциальный риск, создаваемый ИИ. Постоянно развивающиеся модели ИИ, способные обучаться сами, могут выйти из-под контроля и вдруг решить спровоцировать финансовый кризис, повлиять на выборы или даже создать биологическое оружие.

Но в основе статуса ИИ как потенциальной экзистенциальной угрозы лежит вопрос без ответа: каким человеческим ценностям должна соответствовать эта технология? Должна ли она быть в философском смысле утилитарной (в традициях Джона Стюарта Милля и Джереми Бентама) или деонтологической (в традициях Иммануила Канта и Джона Ролза)? Должна ли она быть в культурном отношении WEIRD [аббревиатура, появившаяся в 2010 году для характеристики отсутствия разнообразия в научных исследованиях, WEIRD: Western, educated, industrialized, rich, democratic, то есть западный, образованный, промышленно развитый, богатый и демократический] или нет? Должна ли она быть консервативной или либеральной в политическом смысле? Должна ли она быть похожей на нас — или быть лучше нас?

Постоянно развивающиеся модели ИИ, способные обучаться сами, могут выйти из-под контроля и вдруг решить спровоцировать финансовый кризис, повлиять на выборы или даже создать биологическое оружие

Это не просто гипотетические вопросы. Они уже были в центре реальной общественной дискуссии, в том числе после выхода расистского, женоненавистнического и чрезмерно сексуализированного чат-бота от Microsoft в 2016 году; странного, манипулятивного и соблазнительного бота Сидни в исполнении Бинга (который пытался убедить одного журналиста бросить жену). А совсем недавно новым поводом для дискуссии стал Google Gemini, который отличился выдачей абсурдных с исторической точки зрения результатов, таких как изображения чернокожих нацистских солдат.

К счастью, современные общества разработали механизм, позволяющий сосуществовать всем, несмотря на приверженность разным моральным нормам: верховенство права. Как я отмечала в своих предыдущих публикациях, право как институт представляет собой апофеоз сотрудничества. Его появление стало глубоким прорывом после многих столетий борьбы человечества за решение собственной проблемы согласования: как организовать коллективные действия.

Современные общества разработали механизм, позволяющий сосуществовать всем, несмотря на приверженность разным моральным нормам: верховенство права

В когнитивном отношении право представляло собой радикально новую технологию. Как только это было усвоено, оно привело в соответствие индивидуальные действия с консенсусом сообщества. Праву стали подчиняться, независимо от субъективного суждения человека о каком-либо конкретном законе или нормативном акте. Несколько выдающихся философов обратили внимание на эту уникальную особенность. Теоретик права XX века Герберт Харт описал право как механизм, который позволяет формировать нормы путем изменения основных поведенческих метанорм.

Совсем недавно американский юрист и философ Рональд Дворкин охарактеризовал право с точки зрения «целостности», поскольку оно воплощает в себе нормы всего сообщества. Если бы право представляло собой лоскутное одеяло, оно могло бы лучше отражать отдельные группы убеждений и мнений, но ему не хватало бы последовательности. Таким образом, право служит кнопкой отмены индивидуального человеческого поведения. Оно впитывает сложные дебаты о морали и ценностях и превращает их в обязательные правила.

Большая часть текущих дебатов об ИИ и праве/законодательстве сосредоточена на том, как технология может бросить вызов преобладающим парадигмам регулирования. Одной из проблем является «эффект красной королевы» (аллюзия на «Алису в Стране чудес»), который описывает неизбежную трудность поддержания регулирования в актуальном состоянии с учетом быстро развивающихся технологий. Еще один вопрос — проблема регулирования глобальных технологий на национальном уровне. И, наконец, проблема Франкенштейна — она заключается в том, что новая технология разрабатывается в основном горсткой частных фирм, чьи приоритеты (прежде всего необходимость получать прибыль) отличаются от общественных.

Найти правильный баланс между содействием инновациям и смягчением потенциально огромных рисков, связанных с новыми технологиями, всегда очень трудно. Все чаще звучат предположения, что ИИ изменит правовую практику, но может ли право изменить траекторию развития ИИ? Более того, если «мыслящие машины» способны учиться, смогут ли они научиться соблюдать правовые нормы?

Пока технологические гиганты стремятся к созданию общего искусственного интеллекта — моделей, способных превзойти людей в решении любых когнитивных задач — неопределенность сохраняется. Даже создатели технологии до конца не знают, как именно она работает. Например, может ли ИИ, которому поручено делать скрепки для бумаг, решить, что уничтожение человечества необходимо для максимизации его производства? Чтобы предотвратить непредвиденные обстоятельства, нам понадобится выработать более сложный подход.

Если «мыслящие машины» способны учиться, смогут ли они научиться соблюдать правовые нормы?

Нам следует изучить когнитивную эволюцию, которая позволила человеческому обществу существовать так долго, как оно существует. Могут ли человеческие законы быть внедрены в качестве ограничения при проектировании ИИ — это вопрос для инженеров. Но если это удастся сделать, это может стать нашим спасением.

Может ли ИИ, которому поручено делать скрепки для бумаг, решить, что уничтожение человечества необходимо для максимизации его производства?

С помощью права мы можем вынудить ИИ заплатить цену за вход в наше общество, и эта цена — подчинение нашему коллективному кодексу поведения. Если нейронные сети искусственного интеллекта имитируют наш мозг, а право является в основном когнитивным феноменом, это должно быть возможно. Если нет, то эксперимент, по крайней мере, прольет свет на роль аффективных, эмоциональных и социальных факторов в поддержании человеческих законов. Хотя нам, возможно, придется переосмыслить и улучшить некоторые элементы существующих правовых норм, такая перспектива, по крайней мере, заставляет нас изучить критические различия между «нами» и «ними». Именно здесь должны начаться наши усилия по регулированию ИИ.

Пересказал(а): Корченкова Наталья