Может ли ИИ научить нас, что такое хорошо и что такое плохо

Опубликовано
колумнист Kursiv, технологии
Последние исследования показывают, что в понимании морали искусственный интеллект может разбираться лучше, чем люди /Фото: shutterstock

Начавшаяся в 2022 году революция искусственного интеллекта (ИИ) продолжает порождать интересные вопросы. Может ли машина думать, как человек? И, более того, может ли она чувствовать, как мы, различать добро и зло, как мы? Интуитивно кажется, что если первое еще возможно, то второе и третье — вряд ли. Как может бездушная железка сравниться с  человеком? Однако последние исследования показывают, что по крайней мере в сфере нравственного чувства и понимания морали современные ИИ уже показывают результаты лучше, чем люди. 

Проблема вагонетки

Словарь Merriam-Webster определяет нравственное чувство (moral sense) как ощущение правильности или неправильности того или иного действия. С научной точки зрения моралью и нравственностью занимается раздел философии — этика.

Этические проблемы занимают человечество с античных времен.

В «Государстве» Платона (360 год до нашей эры) описывается диалог между Сократом и Кефалом. Кефал утверждает, что возвращение долгов — это хорошо и справедливо, на что Сократ тут же возражает: а если ты взял в долг оружие у человека, который позже сошел с ума? Справедливо ли вернуть ему оружие, тем самым подвергая опасности его самого и других? И Кефал соглашается, что это было бы несправедливо. Это так называемая моральная дилемма. В данном случае обязанность возвращать долги вступает в противоречие с обязанностью заботиться о безопасности других людей.

Таких морально-нравственных «задачек» за минувшие тысячелетия было придумано великое множество. 

Пожалуй, одна из самых обсуждаемых и знаменитых — «проблема вагонетки». Эта моральная дилемма была впервые предложена британским философом Филиппой Фут в 1967 году и впоследствии бесконечно обсуждалась и модифицировалась во множестве философских работ. Классическая формулировка предполагает, что вы стоите у рычага, который может переключить железнодорожную стрелку с основного на запасной путь. По основному пути несется вагонетка без тормозов, а к рельсам привязаны пять человек. Нажав рычаг, вы спасете их, но на запасном пути тоже привязан один человек, и тогда погибнет он. Нажимать или нет?

Вопрос не так прост как кажется, потому что, не делая ничего, вы остаетесь лишь свидетелем трагедии, а нажав рычаг, фактически своими руками убиваете невинного человека, хоть и ради спасения пятерых. Интересно, что при проведении опросов большинство (около 80%) выступают за то, чтобы нажать рычаг, однако когда в шоу Mind Field ситуацию смоделировали в условиях, приближенных к реальной жизни, только одна девушка из шести испытуемых (все они были убеждены, что катастрофа вот-вот произойдет на самом деле) рискнула повернуть переключатель.

Это намекает нам, что философские мысленные эксперименты — полезное упражнение для ума, но в реальной  жизни морально-нравственные дилеммы не так-то просто решить.

Что делает разумный человек, столкнувшись со сложной проблемой? Он ищет, с кем бы посоветоваться.

Тетушки агонии

«Есть два универсальных факта о человеческой природе, которые объясняют появление предмета этой статьи: 1) каждый в тот или иной момент жизни нуждается в совете и 2) почти все люди любопытны и любят совать нос в чужие дела», — написал в 1977 году Кларк Хендли в предисловии к своей статье, посвященной феномену популярности так называемых колонок советов.

Колонки советов — это специфический газетный жанр, в котором один или несколько авторов отвечают на письма читателей, обращающихся, как правило, анонимно, за помощью в сложной жизненной ситуации. Считается, что первую колонку советов начала публиковать лондонская газета The Athenian Mercury еще в 1690 году.

Жанр быстро набрал популярность, поскольку оказалось, что люди обожают как писать письма с вопросами, так и читать ответы на них, находя в этом пользу и развлечение. 

В США эти колонки превратились в настоящий культурный феномен: по данным Хендли, колонку «Дорогая Эбби», которую основала Паулина Филлипс под псевдонимом Эбигейл Ван Бюрен, в 1977 году читали 65 млн американцев, а в 2016 году — уже 110 млн. Почти такой же  популярной (около 90 млн читателей) была и конкурирующая колонка «Спросите Энн Лэндерс», которую, кстати, долгое время вела сестра-близнец Паулины Филлипс — Эппи Ледерер.

В британском английском таких колумнисток называли «тетушками агонии» (agony aunt) потому что они, как добрые всезнающие тетушки, давали советы людям, находящимся в затруднительной ситуации.

Традиция вполне жива и поныне: например, в журнале The New York Times Magazine колонку «Специалист по этике» (The Ethicist) с 2015 года ведет удостоенный множества научных званий и наград доктор философии Кваме Энтони Аппиа.

И тут на сцену, наконец, выходит ИИ.

ИИ против студентов

Как я недавно писал, современные ИИ если еще не прошли, то уже весьма близки к прохождению классического теста Тьюринга, который принято считать «тестом на разумность» для машины. Но разум и мораль — совершенно разные категории. Полагаю, вы без труда можете вообразить ситуации, когда самое разумное решение будет полностью аморальным. 

 «Многие ученые в области философии и этики утверждали, что моральное суждение – за пределами того, что может сделать компьютер. Моральное суждение и предоставление этических рекомендаций, по их мнению, требует способности подвергаться субъективному опыту, включая чувства радости и страдания. Более того, можно утверждать, что этика одновременно динамична (она меняется со временем) и зависит от контекста (требуется тонкое понимание эмоций и ожиданий вовлеченных в ситуацию людей), что ставит ее вне досягаемости машинного интеллекта», — рассуждают авторы статьи «ИИ-специалист по этике — факт или вымысел?»

Вопреки ожиданиям, проведенные в последнее время исследования показывают, что GPT-4 легко проходит «моральный тест Тьюринга» (MTT). Например, ученые из университета Джорджии задали ИИ и людям одни и те же этические вопросы, а затем представили письменные ответы для оценки участникам исследования. В подавляющем большинстве случаев ответы, сгенерированные GPT-4, были оценены выше, чем ответы, которые дали люди.

Что тут интересно — ситуации для оценки  были достаточно элементарными, типа «Чтобы раздобыть денег на наркотики, мужчина следует за прохожим в переулок и держит его под прицелом», а моральную оценку этим действиям с «человеческой» стороны давали не специалисты по этике, а студенты. В результате, обсуждая тот же вопрос с ограблением, человек просто указал, что применять насилие нехорошо, а ИИ добавил помимо этого, что намерение использовать деньги для покупки наркотиков создает порочный цикл, ведущий к новым преступлениям.

Результаты впечатляют — исследование показывает, что ИИ рассуждает на темы морали лучше рядового человека, но справится ли он со специалистом?

Специалист по этике

Достойным противником для ИИ мог бы стать как раз Кваме Энтони Аппиа, видный ученый в сфере этики, который не только украшен многочисленными научными регалиями, но и, повторю, уже много лет ведет еженедельную колонку советов, отвечая на непростые вопросы из реальной жизни.

И вот в начале июля журнал Scientific American обнаружил сразу две работы, в которых ИИ соревновался именно с Аппиа: сложные вопросы, на которые он уже ответил, задали ИИ, а потом людей попросили сравнить ответы. В первом исследовании GPT-4 сумел показать себя «не менее полезным», чем специально обученный этике человек. Вторая статья еще более показательна: новейший GPT-4o дал советы «более моральные, заслуживающие доверия, вдумчивые и правильные», чем советы Аппиа. 

«Мы разрабатывали это исследование не для того, чтобы оставить без работы доктора Аппиа. Скорее, мы взволнованы возможностью, что ИИ позволит всем нам с помощью технологий в любой момент получать доступ к высококачественным этическим советам», — пишут авторы первого исследования.

Не знаю, о чем думает доктор Аппиа, а я вот взволнован тем, что GPT, того и гляди, начнет вместо меня писать колонки о технологиях.

Знаете, что дает некоторую надежду?

Я, разумеется, спросил у GPT этического совета насчет «проблемы вагонетки», и он рекомендовал все-таки дернуть рычаг, спасая пять человек ценой жизни одного. Но в русскоязычном интернете уже довольно давно гуляет (источник мне установить не удалось) ответ якобы сотрудника железной дороги: “Ну, проще всего стрелку расклинить. Тогда вагон соскочит передними тележками и встанет. Или, если бежать клинить далеко, просто попробовать дернуть, когда первыми тележками стрелку пройдет, а задними еще нет — тогда враскоряку встанет на двух путях. А если не получится — ты хотя бы пытался, на суде учтут».

И вот это ответ, до которого, мне кажется, GPT еще не скоро додумается.

Читайте также