Tenqri
Ana Sayfa
Dünya

Ekspert: Süni intellektin verdiyi kod kritik sistemlərdə ciddi risk yaradır

Böyük dil modellərinə həddindən artıq etibar təhlükəli ola bilər və əsas risk süni intellektin inandırıcılığında deyil, insanların tənqidi düşünmə qabiliyyətini zəiflətməsindədir Bu barədə AZƏRTAC-a açıqlamasında “Samsung Electronics”də mobil təhlükəsizlik və süni intellekt həlləri üzrə proqram təm

yaklaşık 5 saat önce0 görüntülemeazertag.az
Ekspert: Süni intellektin verdiyi kod kritik sistemlərdə ciddi risk yaradır
Paylaş:

Böyük dil modellərinə həddindən artıq etibar təhlükəli ola bilər və əsas risk süni intellektin inandırıcılığında deyil, insanların tənqidi düşünmə qabiliyyətini zəiflətməsindədir Bu barədə AZƏRTAC-a açıqlamasında “Samsung Electronics”də mobil təhlükəsizlik və süni intellekt həlləri üzrə proqram təminatı mühəndisi Adil Əliyev bildirib Adil Əliyev qeyd edib ki, insanlar psixoloji olaraq səlis, inamlı və tərəddüdsüz danışığa daha çox etibar etməyə meyillidirlər. Məhz buna görə siyasətçilər və böyük şirkət rəhbərləri natiqlik bacarıqlarını inkişaf etdirmək üçün xüsusi təlimlərdən keçirlər “Eyni psixoloji mexanizm süni intellekt sistemlərinin qəbuluna da təsir edir. Süni intellekt nəzakətli, məntiqi quruluşlu və inamlı cavablar təqdim edir. Bu isə insanlarda həmin cavabların yüksək dəqiqliyə malik olduğu təəssüratını yaradır və nəticədə bir çox hallarda istifadəçilər öz mühakimələrindən daha çox alqoritmin təqdim etdiyi nəticələrə güvənirlər”, - deyə A.Əliyev qeyd edib Adil Əliyev bildirib ki, bu fenomen psixologiyada “avtomatlaşdırma qərəzi” (“automation bias”) kimi tanınır. İnsanlar texnoloji və mürəkkəb görünən sistemlərin qərarlarını daha doğru hesab etməyə meyillidirlər. Ekspertin fikrincə, süni intellektin əsas problemi onun inandırıcı cavablar təqdim etməsi deyil, istifadəçilərin həmin cavabları sorğulamadan qəbul etməsidir “Təhlükə süni intellektin inandırıcı olmasında deyil. Əsl təhlükə insanların şübhə etməyi dayandırmasında, tənqidi düşünməməsindədir. Bu vəziyyət peşəkar mühitdə xüsusilə kritikdir. Məsələn, böyük dil modelləri çox sürətli şəkildə proqram kodu yaza bilir və bu, doğrudan da faydalıdır. Mən də şəxsən bu alətlərdən hər gün istifadə edirəm. Amma yoxlanılmamış kodun tibbi cihazlarda, bank sistemlərində, imtahan platformalarında və ya aerokosmik proqram təminatında istifadəsi nəinki maliyyə əməliyyatlarında xəta edər, hətta insan həyatının itirilməsinə belə səbəb ola bilər. Süni intellekt sistemləri sadalanan istiqamətlərdə sürəti artırsa da məsuliyyəti əvəz edə bilməyib. Məsələn, hüquq sahəsində real hadisələrdən biri Kanadada baş verib. Mənim yaşadığım Vankuver şəhərində bir hüquqşünas “ChatGPT” istifadə edərək, məhkəməyə hüquqi presedentlər tərtib edib və həqiqiliyi yoxlamayıb. Qarşı tərəf isə sonradan aşkar edib ki, həmin məhkəmə işləri ümumiyyətlə mövcud deyilmiş. Süni intellekt onları olduqca inandırıcı şəkildə uydurmuşdu Səbəbkar “ChatGPT” olsa da məsuliyyət yenə də həmin hüquqşünasın üzərindədir və o bu addımla ciddi peşəkar nöqsana yol vermiş oldu. Tibb sahəsi də xüsusilə həssasdır. Bir çox insan ümumi sağlamlıq sualları üçün “ChatGPT”-dən istifadə edir. Mən özüm də istifadə edirəm. Bunun özlüyündə problemi yoxdur. Risk o zaman başlayır ki, “ChatGPT”nin verdiyi cavablar heç bir həkim məsləhəti olmadan kor-koranə tətbiq edilir. Səhiyyədə inamlı, amma yanlış “tövsiyə” çox ciddi fəsadlara səbəb ola bilər. Akademik mühit də oxşar çətinliklərlə üzləşir. Tez-tez şahid oluruq ki, böyük dil modelləri köçürmə vasitəsi kimi istifadə olunur ki, bu da öyrənməni və akademik dürüstlüyü zədələyir”, – deyə Adil Əliyev bildirib Mütəxəssis səhiyyə sahəsində də oxşar risklərin mövcud olduğunu qeyd edib. Onun sözlərinə görə, bir çox insanlar ümumi sağlamlıq sualları üçün süni intellekt alətlərinə müraciət edir və bu, müəyyən dərəcədə faydalı ola bilər. Lakin risk bu məlumatların həkim məsləhəti olmadan tətbiq edilməsində ortaya çıxır Adil Əliyev əlavə edib ki, süni intellekt alətləri peşəkar qərarverməni dəstəkləməli, lakin onu əvəz etməməlidir. Hər bir sahənin öz etik qaydaları və məsuliyyət mexanizmləri var və cavabın alqoritm tərəfindən yaradılması bu məsuliyyəti aradan qaldırmır Ekspert təhsil sahəsində də bu texnologiyaların düzgün istifadəsinin vacibliyini vurğulayıb. Onun fikrincə, bəzi hallarda böyük dil modelləri öyrənməni dəstəkləyən vasitə kimi deyil, düşünmə prosesini əvəz edən alət kimi istifadə olunur ki, bu da tənqidi düşünmə bacarıqlarının zəifləməsinə səbəb ola bilər “Valideynlər və müəllimlər bu məsələyə xüsusi diqqət yetirməlidirlər. Süni intellekt güclü öyrənmə köməkçisi ola bilər, lakin o, sorğulanmayan mütləq həqiqət kimi qəbul edilməməlidir. Sual vermək, yoxlamaq və çətinliklərlə üzləşmək real öyrənmə prosesinin ayrılmaz hissəsidir”, - deyə A.Əliyev əlavə edib 2026 © AZƏRTAC. Müəllif hüquqları qorunur. Məlumatdan istifadə edərkən hiperlinklə istinad olunmalıdır