
Исследования показывают, что из-за частого использования искусственного интеллекта (ИИ) у людей снижаются когнитивные функции. В Казахстане будут регулировать эту сферу для того, чтобы дети не утратили способность думать, анализировать и критически мыслить. Об этом стало известно на презентации законопроекта об ИИ.
В мажилисе прошла презентация законопроекта о регулировании ИИ. Автор законопроекта Екатерина Смышляева заявила, что исследования доказывают, что частое использование ИИ приводит к снижению способности думать и анализировать. Это может стать угрозой для детского мышления.
«Другой вопрос в том, что использование этих ассистентов не предполагает полное отсутствие потребности думать. Оно предполагает помощь на этапе базового текста. Потом человек, по идее, должен включить критическое мышление, оценить, где правда и ложь, доработать, найти дополнительные источники, перезадавать 500 раз вопросы, чтобы получить качественный контент.
Если мы включим вторую часть критического мышления, то риск снижения когнитивных функций снизится или мы его (риск. – прим. ред.) утратим», – считает Смышляева.
Для решения проблемы нужно пересмотреть образовательные стандарты. Если сейчас в детских садах и школах учат собирать и анализировать информацию, то в будущем ее нужно учить критически оценивать.
Еще нужно помнить, что в случае введения каких-либо ограничений на использование ИИ за соблюдение запретов будут отвечать родители, а не дети, отметила автор инициативы.
«В рамках законопроекта мы будем рассматривать этот вопрос многогранно и вводить запреты, которые будут реально работать и реально администрироваться», – добавила Смышляева.
Еще одна проблема, связанная с ИИ, – это дипфейки, которые вводят людей в заблуждение. Смышляева заявила, что уже сейчас за дипфейки можно применять статьи Административного и Уголовного кодекса. Но наказание связано не с самим фактом распространения дипфейка, а за его содержание.
«Если он оскорбил честь и достоинство человека, манипулировал общественным мнением или привел к мошенническим действиям и повлек материальный ущерб, то за вторичную часть уже применяется ответственность», – сообщила Смышляева.
По ее словам, рабочая группа обсудит вопрос о дипфейках и сформирует свою позицию примерно через месяц.
Поскольку законопроект только начали разрабатывать, на презентации не озвучили конкретные меры, которые будут вводить. Известно, что депутаты планируют классифицировать риски в сфере ИИ (минимальный, средний и высокий) и регулировать именно системы среднего и высокого риска, поскольку они плотно связаны с безопасностью общества и государства. Также мажилисмены намерены создать национальную платформу для разработок в сфере ИИ, в которую будет инвестировать государство. Еще мажилисмены хотят принять меры для усиления защиты персональных данных.
«Законопроект устанавливает требования к владельцам-разработчикам о том, что они должны предупреждать пользователей, что они имеют дело с технологией ИИ. Однако у этого вопроса две медали: на рабочих группах тоже придется по этому поводу строить конструктивное обсуждение, потому что далеко не все продукты можно и нужно маркировать, потому что их объем на сегодня становится колоссальным», – рассказала депутат.
В рабочую группу, которая обсуждает законопроект, вошли депутаты, представители госорганов, а также эксперты. Всего около 150 человек, заключил депутат Нуртай Сабильянов.
Ранее «Курсив» сообщал, что в Казахстане хотят создать Национальный словарный фонд казахского языка.