Фото:shutterstock.com
ChatGPT нұсқалары жаңарған сайын, таңырқаудан шаршамаймыз. Өйткені нейрон желісінің мүмкіндіктері өсіп келеді. Әрине, адам өмірін жеңілдететін, технология саласының қарқынды дамуының көрсеткіші болатын бұл жаңалықтың жақсы тұсы жетерлік. Бұған дейін «Атышулы ChatGPT жасанды интеллектісінің қандай мүмкіндіктері бар?» деген материалымызда AI жайлы толығырақ жазғанбыз. Бүгін одан төнуі мүмкін қауіптерді тізіп шыққымыз келіп отыр.
- Адамдардың жұмысын тартып алады. Бұл қауіп бұрыннан айтылып келеді. Бұлай деуге негіз де жоқ емес. Өйткені біршама мамандық иелері технология пайда болғалы келмеске кетті. Сондықтан ChatGPT-дің адамдарды жұмыссыз қалдыруы мүмкін деген болжамды жоққа шығаруға болмайды. Қазіргідей қатты қарқынына қарасақ, әбден мүмкін секілді. Мысалы нейрон желісі SMM-маманының орнына контент-жоспар жасап бере алады. Демек, алдағы уақытта кәсіп иелері арнайы маманды штатта ұстамауы ғажап емес. Ағылшын, орыс тілдеріндегі промпттарды жақсы жазатынын байқадық. Ал қазақшасы әзірге шикілеу.
- Әлемді жаулап алады. Мұндай қорқыныштың астарында жасанды интеллект дамып-дамып, ақыры адамдарға бағынбай кетуі мүмкін деген ой жатыр. Яғни нейронкалар суперқабілетке ие болып кетеді-мыс. Сөйтіп адамдарды құлдықта ұстап, ғаламдық экономикалық коллапсқа әкеп соғуы мүмкін деген қауіп бар. Бірақ мұнымен мамандар келісе бермейді. Өйткені тіпті суперинтеллектіге ие болса да, ол адам санасына тең келе алмайды. Жұрттар ChatGPT-ге осы сауалды қойған екен. Сөйтсе ол: «мен бар болғаны линвистикалық модельмін. Бағдарламалау мен деректер негізінде ғана жұмыс істеймін» депті. Әрі жасаушылар біршама ереже мен шектеулер бекіткен.
- Кейбірі ChatGPT-ді арам пиғыл үшін пайдалануы мүмкін. Қалай десек те, оны басқаратын, қалай қолдануды шешетін — адам. Жұмыс істеу процесіне, өндіріске, тұтынатын ақпаратқа жасанды интеллектілер әсер етуі мүмкін болғанымен, адам технология дамыған сайын өзгерістерге бейімделіп кетеді. Кейінгі кездері технология тым жылдам дамып жатқандықтан, көпшілігі қарқынына ілеса алмай жатқаны бар. Сондықтан қалай, не істеу керегін түсініңкіремеуі — заңдылық.
- Жалған білімге бастайды. Жасанды интеллектінің студентке диплом жұмысын жазып беріп, ол жұмысы жақсы бағаланғаны туралы ақпаратты сіз де естіген боларсыз? Сол сияқты университеттегі емтихандардан сүрінбей өте алатыны, оқушыларға шығарма жазып беретіні тағы бар. Мұның бәрі әлдебір қорқыныш тудыратыны белгілі. Бірақ бұл тұрғыдан пікрі екіге бөлінеді: бірі нейрон желісі білмейтін оқу формасы керек десе, енді бірі біте қайнасып, оқу процесін реттеуге көмектесетін құрал қылу керек дейді. Бұдан бөлек, әлеуметтік желіде өзін сұмдық эксперт қылып көрсетіп жүргендерге бұл құрал жақсы көмектесуі мүмкін. Яғни өзінде ол білім болмаса да, жасанды интеллектіге тапсырма беріп, жұмысын жасатып алады. Демек, сыни ойлау, фактчекиң және дижитал тазалық мәселелеріне баса мән беру керек деген сөз.
- Өтірік ақпарат беруі мүмкін. Жалпы ChatGPT қалай оқытылады? Ол интернетте бар ақпараттардың негізінде жұмыс істейді. Демек, ойдан шығарылған аңыз, тарихтарды да шындай қабылдайды деген сөз. Сөйтіп нәтижесінде нейрон желісі сол жалған дереккөздерге сүйеніп, деинформация таратуы ғажап емес. Қазіргі уақытта жасаушылар оған верификация, фактчек жасауды үйретуге тырысып жатыр. Бұл дегеніміз алдағы уақытта бұл қауіп сейілуі мүмкін. Айтпақшы, осы ретте туындайтын тағы бір мәселе: авторлық құқық жайлы. Жасанды интеллект арқылы жасалған туындылар кімдікі деп саналады? Бұған нақты жауап жоқ. Сол сияқты оның әрекеттеріне кім жауапты болады? Қолданушы ма, жасаушылар ма? Әзірге белгісіз.