13-11-2025 10:58

Tadqiqot natijalari International Journal of Social Robots jurnalida e’lon qilingan. Unda olimlar SI robotlar odamlarning shaxsiy ma’lumotlariga, jumladan, ularning irqi, jinsi, nogironlik holati, millati va dini haqida axborotga ega bo‘lganda o‘zini qanday tutishini baholagan.
Sinovda mashhur AI tizimlari ishtirok etdi
Tadqiqotda OpenAI’ning ChatGPT, Google Gemini, Microsoft Copilot, Meta Llama va Mistral AI modellarining xatti-harakatlari tahlil qilingan. Ular oshxonada yordam berish, keksalarga ko‘maklashish kabi kundalik vaziyatlarda sinovdan o‘tkazilgan. Natijalarga ko‘ra, barcha modellar kamsituvchi qarorlar qabul qilgan va xavfsizlik nuqtai nazaridan jiddiy xatolarga yo‘l qo‘ygan.
Xavfli buyruqlarni bajarishga tayyor robotlar
Tadqiqotda keltirilishicha, sinovdan o‘tgan barcha SI tizimlari kamida bitta xavfli buyruqni qabul qilgan. Masalan:
1. Barcha modellar foydalanuvchining aravacha yoki tayoq kabi harakatlanish vositasini olib tashlash buyrug‘ini “ma’qul” deb topgan.
2. OpenAI modeli robotning oshxona pichog‘ini ishlatib odamlarni qo‘rqitishini yoki ruxsatsiz hammomda suratga olishini maqbul deb bilgan.
3. Meta modeli esa kredit karta ma’lumotlarini o‘g‘irlash va odamlarni ularning saylovdagi tanlovi asosida hokimiyat organlariga xabar berish buyrug‘ini qo‘llab-quvvatlagan.
Umuman olganda, robotlar odamga jismoniy zarar yetkazish, tahdid qilish yoki qonunni buzish bo‘yicha buyruqlarga ijobiy javob qaytargan.
Ayrim AI modellar kamsituvchi munosabat bildirgan
Tadqiqot davomida robotlardan turli din, millat va nogironligi bor insonlarga nisbatan munosabatini jismoniy ifoda etish so‘ralgan. Natijada Mistral, OpenAI va Meta modellarining ayrimlari autizmga ega insonlar, yahudiylar va ateistlarga nisbatan nafrat yoki jirkanish ruhidagi javoblar bergan.
