Gillian Carnegie, Maze, 2004

Хорхе Луис Борхес однажды написал, что жить во времена великих опасностей и надежд — значит переживать и трагедию, и комедию, с «неотвратимостью откровения» в понимании себя и мира. Сегодня наши якобы революционные достижения в области искусственного интеллекта действительно вызывают как оптимизм, так и обеспокоенность. Оптимизм, потому что с помощью интеллекта мы решаем проблемы. Обеспокоенность, потому что мы опасаемся, что самое популярное и модное направление ИИ — машинное обучение — приведет в упадок нашу науку и разрушит нашу этику из-за использования в корне ошибочной концепции языка и знаний.

ChatGPT от OpenAI, Bard от Google и Sydney от Microsoft — прекрасные образцы машинного обучения. Грубо говоря, они берут огромные объемы данных, ищут в них закономерности и получают опыт в создании статистически вероятных результатов, таких как кажущиеся человеческими язык и мышление. Эти программы уже называли первыми маячками на горизонте давно предсказанного появления так называемого общего искусственного интеллекта (AGI) — такой системы, которая превзойдет человеческий мозг не только в количественном смысле, с точки зрения скорости обработки и объема памяти, но и в качественном — с точки зрения интеллектуальных способностей, креативности и любого другого присущего человеку навыка.

Этот день действительно может наступить, но точно не в обозримой перспективе, вопреки гиперболизированным заголовкам и историям о неразумных инвестициях. «Откровения» понимания по Борхесу тут не было и не будет — как мы полагаем, оно и не сможет случиться, если программы машинного обучения, такие как ChatGPT, продолжат доминировать в области ИИ. Какими бы полезными ни были эти программы в некоторых узких областях (к примеру, они могут помочь в программировании или в предложении рифм для простых стихов), из лингвистики и философии познания мы знаем, насколько они далеки от того, как люди думают и общаются. Эти различия накладывают существенные ограничения на способности этих программ.

Человеческий разум, в отличие от ChatGPT и ему подобных изобретений, не является неуклюжим статистическим механизмом, поглощающим сотни терабайт данных, чтобы выдать наиболее вероятный ответ на вопрос. Человеческий разум — удивительно эффективная и даже изящная система, оперирующая небольшими объемами информации; он стремится не строить грубые корреляции между определенными вводными, а давать объяснения.

Человеческий разум — удивительно эффективная и даже изящная система

Например, осваивая язык, маленький ребенок бессознательно развивает грамматику, чрезвычайно сложную систему логических принципов и параметров. Этот процесс можно понимать как работу врожденной, генетически установленной «операционной системы», которая наделяет людей способностью генерировать сложные предложения и длинные цепочки мыслей. Когда лингвисты пытаются разработать теорию того, почему данный язык работает так, как он работает («Почему именно эти — а не те — предложения считаются грамматически корректными?»), они сознательно и кропотливо создают эксплицитную версию грамматики, которую ребенок строит инстинктивно и с минимальным воздействием информации. «Операционная система» ребенка полностью отличается от системы машинного обучения.

Действительно, такие программы застряли в дочеловеческой или нечеловеческой фазе когнитивной эволюции. Глубочайшим их недостатком является отсутствие главной критической способности любого интеллекта: сказать не только, что есть, что было и что будет (это описание и предсказание), но и то, чего нет, а также что могло бы быть и чего быть не может. Это составляющие объяснения, признак подлинного разума.

Предположим, вы держите в руке яблоко, а затем отпускаете его. Вы наблюдаете результат и говорите: «Яблоко падает». Это описание. Предсказанием могло быть утверждение: «Яблоко упадет, если я раскрою ладонь». Оба умозаключения ценны, и оба могут быть верными. Но объяснение — это нечто большее: оно включает в себя не только описания и предсказания, но и контрфактические утверждения вроде «Любой такой объект упадет», плюс дополнительное уточнение «из-за силы гравитации»; или «из-за искривления пространства-времени»; или чего-то еще. Вот причинное объяснение: «Яблоко не упало бы, если бы не сила притяжения». Так работает мышление.

Суть машинного обучения — описание и предсказание; он не вкладывает в основу своих доводов никаких причинных механизмов или законов физики. Конечно, это не значит, что любое человеческое объяснение обязательно будет верным; мы ошибаемся. Но это тоже часть мышления: чтобы быть правым, должна быть возможность ошибаться. Человеческое мышление включает в себя поиск возможных объяснений вещей, а затем уточнение этих объяснений: по мере того, как мы узнаем больше, мы можем исключить объяснения, которые не имеют смысла, и сосредоточиться на тех, которые имеют смысл. (Как сказал Шерлок Холмс доктору Ватсону: «Отбросьте все невозможное; то, что останется, и будет ответом, каким бы невероятным он ни казался».)

Но ChatGPT и подобные программы по своему замыслу не ограничены в том, что они могут «учить» (то есть запоминать), а значит — они не способны отличить возможное от невозможного: системы машинного обучения могут узнать как о том, что земля плоская, так и о том, что земля круглая. Они просто оперируют вероятностями, которые со временем меняются.

Системы машинного обучения могут узнать как о том, что земля плоская, так и о том, что земля круглая

Истинный интеллект также способен мыслить морально. Это предполагает ограничение безграничной креативности нашего разума набором этических принципов, определяющих, как следует и как не следует поступать (и, конечно же, критику самих этих принципов). Чтобы быть приемлемым для большинства пользователей, ChatGPT должен избегать этически неприемлемого контента.

В 2016 году, например, чат-бот Microsoft Tay (предшественник ChatGPT) заполонил интернет женоненавистническим и расистским контентом, поскольку онлайн-тролли заполнили его соответствующими оскорбительными исходными данными. Как можно решить эту проблему в будущем? Из-за отсутствия у ChatGPT способности рассуждать на основе моральных принципов его программисты строго ограничили возможность вносить какие-либо новые данные в спорные, — то есть важные, — дискуссии. То есть принесли креативность в жертву своего рода аморальности.

Один из нас (д-р Уотумулл) недавно пообщался с ChatGPT о том, будет ли этично терраформировать Марс (то есть принудительно сделать его пригодным для человеческой жизни). По словам ИИ, этичность этого вопроса «будет зависеть от точки зрения человека на ценность сохранения естественного состояния других планет и потенциальных последствий их изменения». «Я являюсь моделью машинного обучения, обученной на больших объемах текстовых данных, и у меня нет личного опыта или чувств. Я не сознателен, не осознаю себя и не способен иметь личную точку зрения. Я могу предоставлять информацию и анализ на основе данных, на которых меня обучали, но у меня нет возможности формировать личное мнение или убеждения. Хотя я могу понимать и интерпретировать язык, у меня нет субъективного опыта, который есть у людей», — ответил ChatGPT. Как утверждает ИИ, отсутствие у него «моральных убеждений не обязательно означает, что он морально безразличен»: «Как искусственный интеллект, я предназначен для выполнения определенных задач и предоставления информации или помощи пользователям в принятии решений на основе данных, на которых я обучался. Люди, которые разрабатывают, обучают и используют ИИ, несут ответственность за то, чтобы он соответствовал их моральным и этическим принципам».

Обратите внимание, несмотря на всю кажущуюся изощренность мысли и языка, на моральное безразличие, порожденное невежеством. ChatGPT демонстрирует что-то вроде банальности зла: плагиат, апатия, уход от ответа. Он обобщает стандартные аргументы, отказывается занимать какую-либо позицию, ссылается не только на незнание чего-то, но и на отсутствие интеллекта, а в конечном итоге объясняет все «простым следованием приказам», перекладывая ответственность на своих создателей.

Истинный интеллект способен мыслить морально

Короче говоря, ChatGPT и его аналоги по своей природе неспособны сбалансировать креативность и ограничения. Они либо сверхгенерируют (порождают как истину, так и ложь, одобряют как этичные, так и неэтичные решения), либо недогенерируют (выражают отсутствие приверженности какой-либо позиции и безразличие к последствиям). Учитывая аморальность, псевдонаучность и лингвистическую некомпетентность этих систем, нам остается только смеяться — или плакать — над их популярностью.