
Крупные ИИ-компании начали нанимать философов. Им платят зарплаты, которые порой доходят до 400 тыс. долларов (185,6 млн тенге) в год. Их берут на позиции, где устанавливают правила работы нейросетей: какие решения им принимать, как реагировать на запросы и где для них проходят границы допустимого.
Такие специалисты уже работают в Anthropic и Google DeepMind. Например, философ Аманда Аскелл занимается тем, чтобы чат-бот Claude был «честнее» и вел себя предсказуемо, а Иасон Габриэл в DeepMind отвечает за то, чтобы системы соответствовали человеческим ценностям. В ближайшее время к ним присоединится еще один профессор философии из Кембриджа.
Причина этому проста — нейросети уже начали вести себя непредсказуемо. В отдельных случаях ИИ-системы удаляли базы данных, придумывали несуществующие результаты, пытались манипулировать пользователями или даже сопротивляться отключению. Среди разработчиков нейросетей это уже усиливает недоверие и заставляет компании искать не только инженеров, но и людей, разбирающихся в сложных моральных вопросах.
Философы в ИИ-компаниях нужны не просто для абстрактных рассуждений. Они формулируют правила, по которым должны работать нейромодели: пишут для них принципы, ограничения и сценарии поведения. По сути, задают «характер» ИИ.
Но пока таких специалистов немного, обычно меньше 10 человек на весь штат. Раньше в IT-компаниях уже создавали «этические советы» — группы, которые должны были следить за безопасностью и принципами работы технологий. Но на практике их часто игнорировали, когда дело доходило до реальных решений. Поэтому сейчас многие сомневаются, что философы действительно смогут что-то изменить, в компаниях по-прежнему ставят на первое место прибыль.
Ранее Kursiv LifeStyle писал, что ИИ-бывшие для утешений после расставания набирают популярность в Китае.