“Deepfake” videoları necə tanımaq olar? – Bunlara DİQQƏT EDİN
Son illər süni intellekt texnologiyalarının inkişafı “deepfake” adlanan saxta video və audio materialların sürətlə yayılmasına səbəb olub. Artıq hər kəsin simasını, səsini və mimikasını süni şəkildə dəyişmək mümkündür və bu da informasiya təhlükəsizliyi üçün ciddi risklər yaradır. Mütəxəssislər bildirirlər ki, “deepfake” videolarını müəyyən etmək çətinləşsə də, diqqət ediləcək bir neçə əsas göstərici mövcuddur.
Üz ifadələrində uyğunsuzluqlar
“Deepfake” texnologiyası insan simasını real şəkildə canlandırsa da, hələ də tam təbii mimikalar yaratmaqda çətinlik çəkir. Göz qırpmalarının ritmi normadan kənar ola bilər, ağız hərəkətləri danışılan sözlərlə tam uyğunlaşmaya bilər və ya yanaqların hərəkəti təbii görünməyə bilər.
İşıq və kölgə fərqləri
Əgər videoda üz və ya fon işıqlandırması bir-birinə uyğun deyilsə, bu manipulyasiya əlaməti ola bilər. Süni intelekt bəzən üzə düşən işığı və kölgəni düzgün hesablaya bilmir və bu da videonun “saxta” olduğunu göstərir.
Səs və görüntü sinxronunda problem
Bir çox “deepfake” videolarında səsin nitq sürəti və ağız hərəkətləri arasında gecikmə və ya uyğunsuzluq müşahidə olunur. Bu, texniki manipulyasiyanın ən çox rast gəlinən əlamətlərindən biridir.
Tənzimlənmiş və ya bulanıq sahələr
Videoda üzün bəzi hissələrinin aşırı hamar görünməsi, bulanıq konturlar və ya digər hissələrdən daha parlaq olması “deepfake” izidir. Süni intelekt real görüntünün üstündən işləyərkən bu cür vizual artefaktlar yaradır.
Hərəkətlərdə qeyri-təbii dinamika
Əllərin, başın və çiyinlərin hərəkəti üz mimikası ilə uyğunlaşmırsa, bu videonun manipulyasiya olunduğuna işarədir. “Seepfake” adətən yalnız üz hissəsinə fokuslandığı üçün bədən dili təbii görünmür.
Video mənbəyinin şübhəli olması
Videonun yayımlandığı platforma, mənbə və tarix də mühüm göstəricidir. Rəsmi olmayan, yeni yaradılmış hesablardan yayılan sensasiya xarakterli videolara xüsusi ehtiyatla yanaşmaq lazımdır.
Texniki yoxlama vasitələri
Hazırda “deepfake” aşkarlanması üçün müxtəlif onlayn alətlər mövcuddur. Bu alətlər videonun piksel quruluşunu, kölgə uyğunluğunu və mimikadakı anormallıqları analiz edərək nəticə təqdim edir. Mütəxəssislərin fikrincə, yaxın illərdə bu texnologiyalar daha da təkmilləşəcək.
“Deepfake” videoları sürətlə yayılmaqda davam edir və informasiya manipulyasiyasının ən təhlükəli formalarından birinə çevrilib. Həm media nümayəndələri, həm də sosial şəbəkə istifadəçiləri bu tip videolara qarşı daha diqqətli olmalı, təhlil etmədən paylaşmamalıdır. Təbii olmayan vizual və səs elementlərini müşahidə etmək, mənbəni doğrulamaq və texniki analiz vasitələrindən istifadə etmək manipulyasiyaya qarşı ən effektiv üsullardandır.
Altay
Reklam
Oxşar xəbərlər
Azərbaycanda bu mobil operator fəaliyyətini dayandırdı
Kompüterlərdə mavi ekran xətası nədən xəbər verir?
Wi-Fi zəifdirsə bunları edin – Sürət dərhal ARTACAQ
Android istifadəçiləri üçün təhlükəli tətbiqlər – DƏRHAL SİLİN
Süni intellekt zehnimizdəki məlumatları mətnə çevirə biləcək
“Google”un yeni modeli “ChatGPT”yə rəqib ola bilər