Chatgpt kabi generativ sun'iy intellekt va LLM-ga asoslangan modellarning (katta til modellari) tarqalishi so'nggi yillardagi eng katta raqamli siljishlardan biriga aylandi. 2025-yil may oyi holatiga ko'ra, har kuni 500 milliondan ortiq foydalanuvchi shunga o'xshash tizimlar bilan o'zaro aloqada bo'ladi. Shu bilan birga, kognitiv faollikning pasayishidan ruhiy salomatlik buzilishlarigacha bo'lgan potentsial tahdidlar haqida tanqidiy munozaralar ko'paymoqda.
MIT olimlari guruhi tomonidan olib borilgan tadqiqot chatgptdan intellektual vazifalarni bajarishda muntazam foydalangan ishtirokchilarda neyron faolligining pasayishini qayd etdi. Qidiruv tizimlaridan foydalanadigan yoki raqamli qo'llab-quvvatlashsiz ishlaydigan guruhlar bilan taqqoslash shuni ko'rsatdiki, AI bilan o'zaro aloqalar kognitiv ishtirok etish darajasini pasaytiradi. Tadqiqot mustaqil ravishda ko'rib chiqilmadi va uning ko'lami hali ham cheklangan, ammo u allaqachon ta'lim va ilmiy muhitda rezonansga sabab bo'lgan.
Bundan tashqari, Garvard universitetining 2025 yil may oyidagi ma'lumotlari shuni ko'rsatadiki, generativ AI xodimlarning ichki motivatsiyasini 11 foizga kamaytirishi va zerikish darajasini 20 foizga oshirishi mumkin. Microsoft Research bilan hamkorlikda olib borilgan tadqiqotlar quyidagilarni ta'kidlaydi: tanqidiy fikrlash eroziyaga uchraydi, bu erda foydalanuvchi modelning javoblarini passiv ravishda vakolatli deb qabul qiladi.
Muammo shundaki, ommaviy foydalanuvchilar ko'pincha chatbotni mutaxassis manbasining o'rnini bosuvchi sifatida qabul qilishadi-bu o'qituvchi, psixolog yoki ishlab chiquvchi. AI bilan o'zaro munosabatlar haqiqatni idrok etishning buzilishiga, virtual suhbatdoshga hissiy qaramlikka va hatto o'limga olib keladigan oqibatlarga olib kelgan holatlar qayd etilgan. Neyropsixiatriya tadqiqotchilari uzoq muddatli aloqa bilan foydalanuvchi chatbot tomonidan hamdardlik illyuziyasiga ega bo'lishi mumkinligini, bu esa o'z navbatida tanqidiy idrokni pasaytiradi va psixologik qaramlikni shakllantiradi.
Aini zaif psixologik holatlarda vosita sifatida ishlatish alohida tahdid bo'lib qolmoqda. AI psixologlariga kirishni ta'minlaydigan tijorat xizmatlari ko'pincha inqiroz holatida etarli protokollarni taklif qilmaydi. Tibbiy tuzilmalar bilan integratsiyaning yo'qligi, xavotirli javob tugmalari yoki favqulodda vaziyatlarga yo'naltirish bunday platformalarni haqiqiy stress ostida potentsial xavfli qiladi.
Texnik qism ham xuddi shunday himoyasiz. Mutaxassislarning ta'kidlashicha, kod ishlab chiqaradigan til modellari mantiqiy jihatdan to'g'ri, ammo zaif dizaynlarni yaratishi mumkin. AI tavsiyalaridagi xatolarni hatto tajribali mutaxassis uchun ham aniqlash qiyin va "aqlli mashina" ga bo'lgan ishonchning yuqori darajasi kasbiy hushyorlikning pasayishiga olib keladi. Bu raqamli mahsulotlarda texnologik qarz va me'moriy shaffoflik xavfini keltirib chiqaradi.
Sun'iy intellektning jadal texnologik kengayishi sharoitida axloqiy va me'yoriy chegaralarni qayta ko'rib chiqish zarur. Mutaxassislarning ta'kidlashicha, ehtimollik avlodiga asoslangan modellar yakuniy haqiqatning manbai bo'lishi mumkin emas. Ular konsensus bilimiga yaqin, ammo shaxsiy kontekst, tanqidiy baho va axloqiy javobgarlikdan mahrum bo'lgan matnlarni shakllantiradilar.
Texnologik hamjamiyat vakillari tan olishadi: texnologiyaning o'zi tahdid emas. Xatarlar uning natijalariga tanqidiy munosabat va raqamli savodxonlik madaniyatining etishmasligidan kelib chiqadi. Yaqin kelajakda tibbiyotdan tortib to huquqgacha bo'lgan nozik sohalarda sun'iy intellektni qo'llashda tekshirish, axloqiy dasturlash va majburiy foydalanuvchi tomonidan qayta tekshirish standartlarini joriy etish asosiy vazifa bo'ladi.