
Руководство OpenAI меняет политику работы нейросетей. Теперь в компании хотят сделать ChatGPT нейтральнее.
Об изменении подхода к обучению нейросетевых моделей сообщает TechCrunch. Теперь OpenAI старается ослабить цензуру. По задумке ChatGPT должен придерживаться «интеллектуальной свободы, какой бы сложной и противоречивой тема ни была».
После триумфального запуска ChatGPT нейросеть могла ответить на многие каверзные вопросы, однако быстро работу искусственного интеллекта стали цензурировать с оглядкой на принципы безопасности и политические настроения.
С приходом Дональда Трампа к власти в США многие крупные компании стали менять подход к работе: одна за другой корпорации начали отказываться от программы DEI (Разнообразие, равенство и инклюзивность). OpenAI, кажется, не стала исключением.
В обновленной версии ChatGPT не должен будет занимать редакторскую позицию, укрывать факты, упускать важный контекст и лгать, даже если часть пользователей может счесть ту или иную мысль оскорбительной и аморальной. Чат-бот должен предлагать разные точки зрения на спорные темы и не занимать чью-то позицию.
«Этот принцип может показаться спорным, ведь это значит, что чат-бот может сохранять нейтралитет в вопросах, которые некоторые считают аморальными или оскорбительными».
Как нейросети будут действовать, если пользователь захочет узнать какую-то потенциально угрожающую жизни информацию, пока не ясно. В спорных моральных и этических аспектах работы ИИ все еще остается много белых пятен.