Blog

Onlayn təhlükənin növü: Deepfakes

Onlayn təhlükənin növü: Deepfakes

Son zamanlar neyro şəbəkələrin inkişafı haqqında çox eşidirik və çox vaxt bu inkişafı müsbət bir hadisə kimi qiymətləndiririk. Lakin, texnologiyanın inkişafı ilə yanaşı, Aİ-dan gələn yeni təhlükələr də ortaya çıxır. Onlardan biri də deepfeyklərdir.

Deepfeyklər-"Dərin saxtalar" (ing. deepfakes) – xüsusi bir texnologiyadır ki, AI və maşın öyrənməsi ilə istifadə edərək saxta audio, video və təsvirlər yaradır. Bu texnologiyalar insanların üzlərini, səslərini və hətta mimikalarını inandırıcı şəkildə dəyişdirərək onların heç vaxt etmədikləri şeyləri danışdığı və ya etdiyi kimi göstərir.

Sadə dillə desək, deepfeyklər rəqəmsal surətlərdir. Üzünüzün təsviri olduğu halda, bu texnologiya ilə realistik videolar və s. yaratmaq mümkündür. Bu texnologiya həm faydalı, həm də zərərli məqsədlər üçün istifadə edilə bilər.

Deepfeyklər incəsənətdə və kinematoqrafiyada geniş istifadə olunur: yaradıcılıq imkanlarını genişləndirmək, mürəkkəb xüsusi effektlər yaratmaq, ölmüş aktyorların obrazlarını yenidən canlandırmaq üçün. Bu texnologiya sayəsində bu sənaye nümayəndələri real həyatda təkrarlanması mümkün olmayan maraqlı xüsusi effektlər yarada bilirlər.

Deepfeyklər jurnalistikada tarixi hadisələri və ya müsahibələri göstərmək üçün də tətbiq olunur.Təhsil sahəsində də "dərin saxtalar" tətbiq olunur: tələbələrin məlumatları daha yaxşı mənimsəmələri üçün effektiv materialların yaradılması İlə.

"Dərin saxtaların" əsas problemlərindən biri onların dezinformasiya yaymaq üçün istifadə olunma ehtimalıdır. Saxta video və audio siyasi, dini və s. təbliğat məqsədləri üçün istifadə oluna bilər, məşhur şəxslərin obrazları vasitəsilə kütlələri aldada bilər.Məsələn,təcrübədə bülə bir hal baş vermişdir: guya Facebook şirkətinin qurucusu Mark Zukerberq bu sosial şəbəkənin istifadəçilərinin bütün məlumatlarına və "sirrlərinə" sahib olduğunu deyir. Video olduqca real görünürdü və dərin saxtalar texnologiyası ilə yaradılmışdı.

Səs saxtalaşdırmaqla şəxslərdən böyük məbləğdə pul tələb edilməsi halları da məlumdur. Məsələn, insanın səsini eşidən şəxs, səsin AI ilə yaradıldığını heç bir şəkildə təxmin edə bilməmişdir və ondan küllü miqdarda pul alınmışdır."Dərin saxtalar" şəxslərin razılığı olmadan saxta videolar yaratmaqla məxfiliyi pozur ki, bu da ciddi hüquqi və etik nəticələrə səbəb ola bilər.

Özünüzü qorumaq üçün, ilk növbədə, sosial şəbəkələrdə paylaşdığınız məlumatlara diqqətli olmalısınız. Videonun saxta olub-olmadığını anlamaq üçün, mimikaya, göz, qaşların qeyri-təbii titrəmələrinə və ya bəzi sahələrdə bulanıqlığa diqqət yetirə bilərsiniz. Həmçinin, videonun təbii olub-olmadığını yoxlayan proqramlar mövcuddur: Forensically, Deepware, KaiCatch və başqaları.

Nəticə olaraq, "dərin saxtalar" texnologiyası sürətlə inkişaf edir və müxtəlif sahələrdə tətbiq olunur. Bu texnologiyanın risklərini və potensial sui-istifadələrini minimallaşdırmaq üçün onları aşkar etmək və tənzimləmək üçün metodlar inkişaf etdirmək və tətbiq etmək vacibdir.

Müəllif haqqında

Gülər Rəhimli

Son postlar

Yeniliklərdən və təkliflərdən ilk siz xəbər tutun