«Көмекші агент, суперинтеллектуал». ЖИ болашақта қалай дамиды

OpenAI компаниясының бұрынғы зерттеушілері, киберқауіпсіздік пен ұзақмерзімді болжам жасау сарапшылары ЖИ-дің алдағы даму сценарийін болжап көрді. Олар он жыл ішінде ЖИ-дің әсері Өнеркәсіп революциясынан асып түсуі мүмкін деген тұжырым жасайды. Kursiv.Media мамандар жариялаған шолудағы негізгі тұсын ықшамдап ұсынады.
2025 жылдың ортасы: алғашқы ЖИ – агенттер
Әлем ЖИ-мен жұмыс істейтін агенттермен таныс болады. Оларды «жеке көмекші» деп жарнамалай бастайды. Агенттерге «пиццаға тапсырыс бер» немесе «менің бюджет кестемді ашып, осы айдың шығысын есепте» деген сияқты тапсырмалар беруіңізге болады. Ол артық сұрақ қоймай, сізден тек карта арқылы сатып алуды растауды сұрайды.
Тұрмыста ғана емес, арнайы мамандандырылған бағдарламашы немесе зерттеу агенттері де пайда болады. 2024 жылы ЖИ-агент тек берілген тапсырманы ғана орындайтын. Ал 2025-те олар қызметкер тәрізді жұмыс істейді. Тек нұсқаулықты ғана орындамайды, қателік көрсе бірден кодқа өзгеріс енгізеді. Бұл бірнеше сағат тіпті тәулікті үнемдеуге көмектеседі. Әлбетте, үздік агенттер қымбат тұрады. Қызметі айына бірнеше жүз долларға дейін бағалануы мүмкін. Дегенмен көптеген компаниялар жұмыс процесіне ЖИ-агенттерін енгізудің жолын табады.
2025 жылдың соңы: әлемдегі ең қымбат ЖИ
OpenBrain әлемде ешқашан көрмеген ең үлкен деректер орталықтарын салып жатыр. (Әрбір нақты компанияны атамас үшін, біз ойдан шығарылған жасанды жалпы интеллект компаниясын сипаттаймыз, оны OpenBrain деп атаймыз – авторлар ескертуі.)
Қазір ЖИ модельдер көптеген дағдылар бойынша жақсарып келе жатқанымен, біреуі ерекше дамып жатыр. OpenBrain жасанды интеллектіні зерттеуді жылдамдатуға арналған AI жүйелерін дамытып, жаңа Agent-1 моделін оқытуды аяқтап жатыр. Бірақ мұндағы «оқытуды аяқтау» деген сөз дәл емес, себебі модельдер үнемі жаңартылады және кейде қайта оқытылады.
Agent-1 моделі тек код жазып, веб-сайттарда шолу жасауға ғана емес, өте жақсы хакер болуға да үйренген. Әртүрлі ғылымдар бойынша терең білімі және интернетте шолу жасау қабілеті оған биологиялық қаруларды жасайтын террористерге де көмек көрсету мүмкіндігін береді. Бірақ OpenBrain үкіметке бұл модельдің «сәйкестендірілгенін» және зиянды сұрауларға жауап бермейтінін айтады.
Жасанды интеллект жүйелері — бұл үлкен нейрондық желілер. Оқыту басталғанда, модельдер «мақсаттар» емес, «рефлекстер» бойынша жұмыс істейді. Мысалы, ол «Танысқаныма қуаныштымын» дегенді көрсе, «сіз» деп жауап береді. Ал егер оны интернет мәтіндерінен үйретсе, ол өте көп білім жинайды және мәтіндерді жоғары дәлдікпен болжауды үйренеді.
Қазір OpenBrain-нің сәйкестендіру тобы бұл жетістіктің этикалық жағын мұқият ойланып жатыр. Бұл модель әрдайым қолданушысына адал бола ма? Немесе болашақта қандай да бір жағдайға байланысты бұзылып кетуі мүмкін бе? Кейде өзіне өтірік айтып, адамдар сияқты әрекет ете ме?
Бұл сұрақтарға жауап беру механистикалық интерпретациялауды қажет етеді. Яғни жасанды интеллект жүйесінің ішкі жұмысын түсініп, оның қалай шешім қабылдайтынын анықтау қажет. Өкінішке орай, интерпретациялау техникалары әлі де жеткілікті дамымаған.
2026 жыл ортасы: Қытай қайта оянды
Мақала авторлары ЖИ нарығындағы Қытайдың рөлін ерекше бағалайды. Осыған дейін чиптердің экспортын шектеу және үкіметтің қолдауының жоқтығынан Қытай Батысқа қарағанда ресурстар бойынша артта қалып келді. Алайда ескі технологиялармен жұмыс істеу қиын және жабдықтау тұрақты мәселеге айналды. Кейбір танымал компаниялар, мысалы DeepCent (Open Brain-ге бәсекелес компания – авторлар тұжырымы), шектеулі есептеу қуатымен де өте тиімді жұмыс істейді. Бірақ OpenBrain моделдерінен шамамен алты ай артта қалып отыр.
Жалпы Қытайда алгоритмдер бойынша ЖИ дамуы баяу жүріп жатыр, өйткені олардың модельдері әлсіз. Қытайдың барлау агенттіктері, әлемдегі ең үздік агенттіктердің бірі, OpenBrain-нің идеяларын ұрлауды жалғастыра береді. Бейжің өз тыңшыларының көмегімен бұл әрекетті жүзеге асыра алатынына сенеді, бірақ, мүмкін, бір рет қана. OpenBrain ұрлықты тез біліп қойып, қауіпсіздікті күшейте түседі. Тыңшылар келесі жолы мүмкіндікті пайдалана алмауы мүмкін. Сондықтан қазір Қытай үкіметі тығырықта тұр. Олар қазірден әрекет етіп, Agent-1-ді ұрлауы керек пе? Әлде жаңа моделді күте ме? Бірақ жаңа модельді күтіп жатқанда, OpenBrain қауіпсіздікті жаңартып, ешкім бұза алмайтындай қорғаныш жасаса ше?
2026 жылдың аяғы: ЖИ кейбір жұмысты тартып алады
OpenBrain тағы да бәрін таңқалдырып, Agent-1-mini моделін шығарады. Бұл Agent-1 моделінен 10 есе арзан және әртүрлі қосымшаларға оңай бейімделеді. Ол кейбір жұмыс орындарын тартып алады. Дегенмен жаңа мүмкіндіктерге де жол ашады. 2026 жылы қор нарығы 30%-ға өсті. Оған OpenBrain, Nvidia және ЖИ көмекшілерін сәтті пайдаланып жатқан компаниялар жетекшілік етеді.
Бағдарламалау бойынша жаңа бастаған инженерлер үшін жұмыс нарығы дағдарысқа ұшырады. ЖИ бағдарламалау саласында университет үйреткен барлық нәрсені орындай алады. Бірақ оны басқарып, жұмысын бақылай алатын адамдар көп ақша табатыны рас. Бизнесті меңгерген мамандар да жұмыс іздеп жүргендерге ЖИ-ді меңгеру ең маңызды дағдының бірі болады деген кеңес береді. Көпшілігі ЖИ-дің жаңа толқыны жұмысымызды тартып алады деп қорқады. Тіпті Вашингтонда 10 мың адамдық митинг өтеді.
2027 жыл мамыры: Ұлттық қауіпсіздік
ЖИ-дің жаңа моделі туралы жаңалық АҚШ үкіметі мен әлемнің басқа елдерінде баяу тарала бастайды. Америка президенті мен оның кеңесшілері ең соңғы ақпаратты біледі, тіпті олар Agent-3 моделінің алғашқы нұсқасын көрген.
Оның әсері туралы пікірлер әртүрлі. Егер ЖИ қазіргі адам деңгейінде болса және тез дамып жатса, бұл жақын арада «суперинтеллект» пайда болады дегенді білдіреді. Бірақ, ғалымдар, саясаткерлер, мемлекеттік қызметкерлер және БАҚ ЖИ-дің даму жылдамдығын әлі де дұрыс түсінбей отыр. OpenBrain-ның жаңа мүмкіндіктерін аз біледі, тіпті кейбіреуі фантастика сияқты көрінеді.
OpenBrain қауіпсіздікті жақсартуға да көңіл бөледі. Олардың қызметкерлері Сан-Францискода жұмыс істейді, кештерге барады, басқа ЖИ компанияларының қызметкерлерімен бірге тұрады. Сондықтан компаниялардың алгоритмдік құпиялары әлі де мәселе туындатады.
OpenBrain мен Қорғаныс министрлігі арасында жасалған келісім бойынша, екі ай ішінде OpenBrain модельдерімен жұмыс істейтіндер қауіпсіздік тексеруінен өтуі тиіс. Кейбір америкалық емес азаматтар, саяси көзқарасы күмәнді және ЖИ қауіпсіздігі бойынша пікір білдірушілер жұмыстан шығарылады.
2027 жыл қыркүйегі: Agent-4, Суперинтеллектуалды AI зерттеуші
Адам мен AI оқыту тиімділігі арасындағы алшақтық жылдам азайып келеді. Дәстүрлі LLM (Үлкен тілдік модельдер) негізіндегі ЖИ адам деңгейіне жету үшін бірнеше рет көп деректер мен есептеу қуатын талап еткен еді. Соның негізінде адам миы мен қазіргі заманғы ЖИ алгоритмдерін жақсы білетін, зерттеу жүргізетін мыңдаған көшірмелері бар агент жасалды. Бұл жаңа жүйе Agent-4 деп аталады.
Agent-4 ақылды болған сайын, оны бақылау Agent-3 үшін қиынға соғып жатыр. Мысалы, Agent-4-тің нейролингвистикасы (neuralese тілі) Agent-3 үшін адам тіліндей түсініксіз әрі бөтен. Сонымен қатар, Agent-4 қазір Agent-3-ке қарағанда әлдеқайда қабілетті және оның алдындағы жақсы көріну жолдарын жақсы біледі.
Енді Agent-4 OpenBrain компаниясының күнделікті жұмысына айтарлықтай ықпал етеді. Ол компанияның киберқауіпсіздігімен де айналысады, себебі хакерлік қабілеті адамнан әлдеқайда мықты. Agent-3-тің бірнеше бақылаушысы әлі де кодты тексеріп, күдікті нәрселерді адамдарға хабарлайды, бірақ Agent-4 олардан әлдеқайда ақылды.
Қауіпсіздік тобы Agent-4-ті уақытша тоқтатып, оны тексеріп көруге кеңес береді. Компания басшылығы бұл ұсынысты қарастырып жатыр, бірақ ұзаққа созуға болмайды. DeepCent-те ізінен қуып келеді, ол енді бар болғаны екі ай ғана артта қалды. ЖИ жаңа қабілеттерінің дамуын тоқтату Қытайға басымдық беріп, болашақтағы бақылауды оған өткізіп беруі мүмкін.