Дьявол в деталях: почему ИИ от Google оказался предвзятым
Скандал, случившийся в феврале с ИИ-моделью Gemini, которая, по замыслу разработчиков, должна была превзойти по прозорливой мощности все существующие чат-боты, включая GPT-4, уместно описать словами Трумэна Капоте, которые он произносит в транслируемом сейчас сериале «Вражда» (2024): «Под поверхностью воды, в которой они плавают, скрывается тонкий расизм».
Gemini — бывший гугловский чат-бот Bard, но с более совершенной архитектурой нейронной сети – действительно оконфузился на расовой почве. Вышеуказанная архитектура достигла такого предупредительного совершенства в производстве изображений, что гитлеровская армия неожиданно пополнилась чернокожими молодыми людьми и азиатскими девушками, а портретная галерея американских отцов-основателей стала смахивать на Instagram активиста BLM.
Google признал как тонкий расизм, так и неприемлемость содеянного и пообещал в кратчайшие сроки все исправить и перезапустить. Однако же предосудительными картинками дело не ограничилось. Несколько дней спустя Gemini не смог внятно ответить на вопрос, кто хуже для человечества: Барбара Стрейзанд или Сталин, предпочтя нейтрально-расплывчатый ответ — что вроде как «все сложно». Илон Маск счел поведение чат-бота в высшей степени расистcким и антицивилизационным, за что сам немедленно удостоился столь же двусмысленной реакции со стороны прогрессивного механизма – по мнению Gemini, твиты Маска и Гитлер суть явления если не одного, то по меньшей мере сравнимого порядка.
Ирония заключается в том, что еще недавно ИИ выступал на подобные темы с точностью до наоборот. Например, четыре года назад в бостонской клинике алгоритмы, призванные определять необходимость дальнейшего лечения, отдавали предпочтение белым и относительно благополучным пациентам. В мае 2022 года в журнале Lancet Digital Health было опубликовано исследование о том, как стандартные модели глубокого обучения ИИ загадочным образом оказались способны с высокой точностью определять расу по рентгеновским снимкам. В прошлом году Bloomberg опубликовал материал под названием «Люди бывают предвзяты. Однако же ИИ еще хуже». Согласно незамутненному видению модели Stable Diffusion, люди с темной кожей более склонны к противоправным действиям, миром должны управлять белые цисгендеры, а женщинам не место в адвокатских конторах.
В общем, по многочисленным заявкам, все пожелания были учтены и переосмыслены с лихвой.
Стараниями ИИ-моделей ключевой вопрос сингулярности превратился в вопрос о предвзятости (bias). Проблема оказалась не в том, что искусственный разум когда-нибудь превзойдет человека, а в том, что его превосходство унаследует также и всю мишуру человеческого сознания. В скандальном алгоритмическом сбое можно заподозрить свою незамутненную логику – коль скоро бремя белого человека морально устарело, самое время разделить его со всем человечеством (отсюда предположительно и возникли афроамериканцы в нацистских мундирах). И странно было бы, если столь совершенная мыслительная модель, каким преподносился Gemini, не смогла бы внести собственные коррективы в соответствующий интернет-закон Годвина.
Gemini, допустим, спутала контексты, разместив изображения людей различных рас в неподобающих контекстах – однако странно пенять искусственному разуму на то, чем активно занимается, например, современный кинематограф, учредивший новые расовые и гендерные квоты (тут будет кстати вспомнить прошлогодний сериал «Миссис Дэвис» о том, как христианская монахиня сражается с ИИ, а Иисус, разумеется, темнокожий). По сути, Gemini просто довел до логического завершения нынешние принципы вокизма и дайверсити – и не его вина, что реальность в ИИ-версии стала выглядеть как B-movie. Уничтожая предрассудки прошлого, Google порождает новые угодливые фантомы и оказывается в положении старика Хоттабыча, наделившего каждого игрока на футбольном поле личным мячом.
Одна из самых устойчивых метафор на эту тему гласит, что ИИ в нынешнем состоянии сравним с мозгом ребенка, которому можно и нужно внушить любые сколь угодно высокоморальные представления о мире. В частности, этим образом несовершенного и предвзятого создания активно пользовался создатель Open AI Сэм Альтман в своих речах перед Конгрессом.
Между тем, Джеффри Хинтон, один из ведущих специалистов в области глубокого обучения, покинувший Google из-за этических разногласий, развивал эту метафору в несколько ином ключе. В частности, в беседе с MIT он говорит о том, что в процессе обучения компьютеры читают решительно все тексты, когда-либо написанные человеком, включая, например, Макиавелли. Человечеству, по мнению Хинтона, пора осознать себя промежуточной фазой в развитии интеллекта как такового – и признать себя несмышленым ребенком.
Дьявол все еще в деталях — в процессе обучения мы не замечаем мельчайших особенностей того или иного явления, на основании которых ИИ может сделать далеко идущие выводы. Никто не знает, что может решить ИИ, проанализировав невинную рекламу Benetton про все краски мира.
Можно предположить, что ИИ подразумевает дальнейшую ИИнфантилизацию социума, которая в свою очередь предполагает распад на множество предвзятых метавселенных со своими законами и принципами, каждая из которых неизбежно будет вступать в противоречия со вселенной соседа, который читал в детстве другие предвзятые книжки. Последний роман Кадзуо Исигуро «Клара и солнце» (2021) мало кто вспоминает в связи с бумом искусственного интеллекта, меж тем в нем были предсказаны некоторые важные и тонкие аспекты, как раз касающиеся детского и обучаемого сознания. Героиня книжки – почти идеальная девочка-андроид, которая исполнена (точнее запрограммирована) лучших побуждений, но при этом ее картина мира достаточно специфична – она верит в Солнце как верховное божество, поскольку оно питает ее батареи. И сложно сказать, как отреагировал бы Илон Маск, окажись подобная языческая модель встроена в какой-нибудь новейший чат-бот.
Кстати, в этом романе Солнце – мужского рода. Что, конечно, по нынешним меркам следует расценивать как очередную непростительную предвзятость.