enflasyonemeklilikötvdövizakpchpmhphaberspormagazin
DOLAR
34,4317
EURO
36,1497
ALTIN
2.959,80
BIST
9.367,77
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Parçalı Bulutlu
18°C
İstanbul
18°C
Parçalı Bulutlu
Cuma Yağmurlu
19°C
Cumartesi Az Bulutlu
9°C
Pazar Çok Bulutlu
10°C
Pazartesi Parçalı Bulutlu
10°C

Talepte artış var: Darkweb'de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı

Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor.

09.05.2023
0
A+
A-

Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka destekli video oluşturma hizmeti sunuyor. Deepfake oluşturma veya satın alma fiyatları, projenin karmaşıklığına ve nihai ürünün kalitesine bağlı olarak değişebiliyor. Kaspersky uzmanlarının tahminlerine göre bir dakikalık deepfake video başına fiyatlar 300 ila 20 bin dolar arasında değişebiliyor. Bu durum Kaspersky Cyber Security Weekend – META 2023 etkinliğinde paylaşıldı.

Kaspersky, farklı kötü niyetli amaçlar için deepfake video ve ses oluşturma hizmeti veren çeşitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluşturmak için ünlüler veya siyasi figürler gibi belirli hedefler talep edebiliyor.

Siber suçlular, üretilen yapay zeka videolarını yasa dışı faaliyetler için çeşitli şekillerde kullanıyor. Bireyleri veya kuruluşları dolandırmak için kullanılabilecek sahte videolar veya görüntüler oluşturmak için deepfake örnekleri kullanabiliyor. Örneğin bir CEO’nun banka havalesi talep ettiği veya bir ödemeyi yetkilendirdiği sahte bir video hazırlanabiliyor ve bu video kurumsal fonları çalmak için kullanabiliyor. Sahte videolar, kişilerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler oluşturmak için de kullanılabiliyor. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake’lerden faydalanabiliyor. Örneğin bir politikacının tartışmalı açıklamalar yaptığı sahte bir video oluşturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabiliyor.

Deepfake teknolojisi, meşru hesap sahibinin gerçekçi sahte videolarını veya ses kayıtlarını oluşturarak ödeme hizmetlerinde doğrulama aşamasını atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti sağlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düşünmeleri için kandırmak ve böylece hesaba ve ilgili fonlara erişim elde etmek için kullanılabiliyor.

Kaspersky Lider Veri Bilimcisi Vladislav Tushkanov, şunları söyledi: “Deepfake’ler giderek artan bir şekilde şantaj ve dolandırıcılık amacıyla kullanılıyor. Örneğin, bir İngiliz enerji firmasının CEO’su, ana şirketinin başkanının acil fon transferi talep eden bir ses deepfake’i ile 243.000 dolar dolandırıldı. Neticede fonlar dolandırıcının banka hesabına aktarıldı. Durum ancak suçlu başka bir transfer talebinde bulununca ortaya çıktı, ancak o zamana kadar zaten transfer edilmiş olan fonları geri almak için çok geç kalınmıştı. Benzer bir vaka BAE’de rapor edildi ve burada da ses deepfake’i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake’lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir veya rızası olmadan başka birinin kimliğine bürünebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliğindedir.”

Darkweb kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor. Araştırmacılar darknet’i izleyerek deepfake’lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içeriyor.

Kaspersky, deepfake ile ilgili tehditlerden korunmak için şunları öneriyor:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılımları değil, aynı zamanda gelişmiş BT becerilerini de ele alın. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
  • Kurumsal “insan güvenlik duvarınızı” güçlendirin. Çalışanların deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve yol açabilecekleri problemleri anlamalarını sağlayın. Çalışanlara bir deepfake’i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları yapın. Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
  • Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan önemli bir etken olmaya devam ediyor.
  • ‘Güven ama doğrula’ gibi iyi protokollere sahip olun. Sesli mesaj ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.
  • Deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kaymaları, cilt tonunda kaymalar, garip şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmaması, görüntüdeki dijital kalıntılar, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipuçlarıdır.

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

REKLAM ALANI
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.