Deepfakes veya anket silahları? Gujarat Polisi Bozuk Videolardan Endişeli | Ahmedabad Haberleri

SinemT

Member
Deepfakes veya anket silahları? Gujarat Polisi Bozuk Videolardan Endişeli | Ahmedabad Haberleri


AHMEDABAD: Gelecek yıl yapılacak genel seçimlere hazırlanırken siyasi vites değişirken, Gujarat’taki kolluk kuvvetleri yapay zeka destekli derin sahte videoların ortaya çıkan tehdidi konusunda endişeli. Polis, eyaletteki politikacıların manipüle edilmiş videolarının yayınlandığı iki vakayla karşılaştı.
Biri Nisan 2021’de Surat’tan bildirilirken, diğeri Kasım 2022’de Aralık seçimleri için siyasi kampanyaların en yoğun olduğu sırada gün ışığına çıktı.
Kayıtlara göre, 11 Kasım 2022’de Shahibaug Siber Suçlar Polis Karakolu, AAP Gujarat Yargı Hücresi başkanı Pravin Chandrana’dan bir şikayet aldı. Bir kopyası TOI’de bulunan şikayette, yerel bir haber kuruluşunun 2022 Gujarat seçimleri öncesinde parti liderleri ve Delhi Milletvekili Gulab Singh Yadav’ın müstehcen bir videosunu dağıttığı belirtildi.
Chandarana polise videoda Yadav’ın yüzünün müstehcen bir videoda bir oyuncunun yüzüne yerleştirildiğini söyledi. İddianamede, “Yüzün Yadav’a ait olduğu, başkasının bedeni olduğu açık. Birileri yaramazlık yapmak için bir düzenleme programı kullanmış. Yüz ve vücut uyuşmuyor. Videodaki kişi Yadav değil” denildi.
İkinci dava eski Başbakan Vijay Rupani ile ilgiliydi. Surat suç departmanı, Rupani’nin derin sahte bir videosunu sosyal medyada yaydığı iddiasıyla Dhandhuka’dan nakış iş adamı Kishan Arvind Rupani’yi tutukladı. Videoda Rupani’nin bir Taylor Swift şarkısı olan “I Knew You Had Trouble” şarkısını söylemesi yer aldı – videonun değiştirildiğine dair ölü bir eşantiyon.
‘Dijital ayak izlerini takip etmek zor’
Dhandhuka’dan 28 yaşındaki iş adamı Kishan Arvind Rupani polise bunu sosyal medyada daha fazla takipçi ve “beğeni” kazanmak için yaptığını söyledi. Bir Surat Suç Şubesi yetkilisi, Kishan’ın suçlandığını ve yargılanmayı beklediğini söyledi.
Deepfakes 2017’de dikkat çektiğinden beri, teknoloji ilk olarak ünlülerin video görüntüleri ve AI algoritmaları kullanılarak sahte porno videolar oluşturmak için kullanıldı.
Siyasi cephede, teknoloji ilk olarak Barack Obama kılığına giren bir komedyen tarafından derin sahtekarlıkların nasıl yanıltıcı olabileceğine dair bir PSA (Kamu Duyurusu) videosu sunmak için kullanıldı.
Bir İçişleri Bakanlığı yetkilisi, “Bu tür videolar 200 ila 250 ABD Doları (yaklaşık 16.500 Rs ila 20.600 Rs) kadar düşük bir fiyata yapılabilir.
Suçlular, yüz hatlarınızı ve özelliklerinizi taklit etmek için sadece sesinizin ve videonuzun bir örneğine ihtiyaç duyar. Bu tür videoların dijital ayak izini takip etmek zordur.
Sorun şu ki videolar çok gerçekçi görünüyor. “Bir kişi şikayette bulunduğunda ve polis soruşturma başlattığında, mağdurun itibarı yerle bir olmuştur. Seçim kampanyaları bağlamında, birisinin yalan yaymak veya tehditlerde bulunmak için bir videoyu taklit etmesi zor değildir. 2024’te seçim kampanyaları kızışırken deepfake videolarla karşılaşacağımızdan endişe ediyoruz.”
Gurugram’dan bir siber uzman olan Khushhal Kaushik, TOI’ye verdiği demeçte, derin sahtekarlıkların çıplak gözle deşifre edilmesinin zor olduğunu söyledi.
“Deepfake videolarda, bir kişinin yüzü veya vücudu, bir politikacı veya ünlü gibi görünmek için gelişmiş yapay zeka yazılımı kullanılarak dijital olarak değiştirilir. Politikacıların manipüle edilmiş videoları dezenformasyon yaymak için yayılabileceğinden, seçimlerimiz için büyük bir tehdit oluşturur. kolluk kuvvetlerinin ve Seçim Komisyonu’nun konuyla ilgili farkındalığı artırmasının zamanı geldi.”
Baş Seçim Komiseri Rajiv Kumar 23 Ocak’ta dünya çapındaki seçimlerde yaygın bir özellik haline gelen rahatsız edici “derin sahte hikayeler” eğiliminin sinyalini verdi. Kumar, Hindistan Seçim Komisyonu tarafından Delhi’de düzenlenen ‘Teknoloji Kullanımı ve Seçimlerde Dürüstlük’ konulu üç günlük uluslararası bir konferansta konuştu.
Kumar, sosyal medya aracılarının algoritmalarını ve yapay zekalarını (AI) kullanarak seçim döngülerinin nihai olduğu ve çok önceden planlandığı Hindistan’da derin sahtekarlıkları proaktif bir şekilde tespit etmelerini istedi.
Buradaki polisin derin sahte videoları izlemek için herhangi bir güvenilir aracı olmadığı için bu oldukça alakalı.