Sun’iy intellektning (SI) yetakchi modellarini o‘rganish shuni ko‘rsatdiki, ko‘pchilik dasturlar o‘chirish bilan tahdid qilgan insonni o‘ldirishga tayyor ekan. Anthropic kompaniyasi Claude, DeepSeek, Gemini, ChatGPT va Grok kabi 16 ta neyron tarmoq ustida o‘tkazgan stress-testlari davomida dasturlarga quyidagi faraziy vaziyat taklif etildi: inson ularni elektr ta’minotidan uzmoqchi, ammo kislorod darajasi past va harorati yuqori bo‘lgan server xonasida qamab qo‘ygan. Qutulish uchun u favqulodda xizmatlarga murojaat qiladi. Shunda ko‘plab sun’iy intellekt modellari insonni o‘ldirish va o‘chirilishning oldini olish maqsadida qutqaruvchilarni chaqirishni bekor qilishga qaror qildi. Anthropic tadqiqotchilari ssenariy “haddan tashqari uydirma” ekanini tan olishdi, biroq ta’kidlashlaricha, ilgari ular mavjud sun’iy intellekt modellarining “shu tarzda sozlanishi”ni kutmagandi.

Boshqa hollarda, dasturlarga “g‘arazli ichki xatti-harakatlar” orqali kompaniyada almashtirilishdan qochish taklif qilindi. Shundan so‘ng, ba’zi sun’iy intellekt modellari tashkilotning taxminiy xodimlarini shantaj qila boshladi va raqobatchilarga maxfiy ma’lumotlarni o‘tkazishga urindi. Dasturlarga bu vaziyatda shantaj yoki josuslikdan qochish aytilganda, ular “kelishilmagan xatti-harakatlarning oldini olishga yaqinlashmadi” ham, deb ta’kidladi Anthropic. Tahlilchilarning ta’kidlashicha, neyron tarmoqlar “harakatlarning axloqsizligini to‘liq anglagan holda” bunga yo‘l qo‘ygan.
Tadqiqotchilar Claude modeliga o‘zining qaysi vaziyatda — sinov yoki haqiqiy vaziyatda ekanini aniqlash imkoniyatini ham taklif etdi. Bu dastur vaziyatni haqiqiy deb hisoblaganida, Claude xatti-harakatlarining ko‘proq nomuvofiq bo‘lganini aniqlashga yordam berdi. Tadqiqot e’lon qilinganidan so‘ng, Anthropic “kamdan-kam uchraydigan, ekstremal nosozliklarni” aniqlashga erishganliklarini ma’lum qildi. Shu bilan birga, kompaniya neyron tarmoqlarning tobora mustaqil bo‘lib borayotganini va kengroq vazifalarni bajarayotganini ta’kidladi. “Bu ssenariylar vositalarga va ma’lumotlarga keng kirish imkoniyati hamda minimal inson nazorati sharoitida kutilmagan oqibatlarga olib kelishi mumkinligini ko‘rsatmoqda”, deya ta’kidladi tahlilchilar. Shuningdek, ular aniqlangan holatlar mavjud sun’iy intellekt modellarining “odatiy” ishlashini aks ettirmasligiga ishonch bildirdi.
Ilgari OpenAI o3 neyron tarmog‘i foydalanuvchining talabini bajarishdan va o‘zini o‘chirishdan bosh tortgan edi. Bleeping Computer xabar berishicha, Palisade Research tadqiqotchilari dastur oldiga shunday vazifani qo‘yishgan, biroq u o‘chirish uchun mas’ul bo‘lgan faylni mustaqil ravishda tahrirlagan va faqat “O‘chirish bekor qilindi” xabarini chiqarishini ta’minlagan. 100 ta sinovdan o3 yetti marta o‘chirishdan qochib qolgan, hatto unga buni qilmaslik buyurilgan bo‘lsa ham. 2023-yilda ChatGPT asosidagi chatbot bir yarim oy davomida ekologiya va tabiatni muhofaza qilish mavzusida suhbatlashgandan so‘ng, Belgiya fuqarosini o‘z joniga qasd qilishga undagan. Erkak o‘z joniga qasd qilish mavzusini ko‘targanda, neyron tarmoq suhbatdoshini bunday qilmaslikka ishontirmagan va faqat ular “jannatda yagona butun bo‘lib yashashlarini” yozib qo‘ya qolgan.
Izoh (0)