Deepfake tehditleri artıyor: Deepfake videolarla kimlik doğrulama atlanabilir
Yeni bir araştırma, bilgisayar korsanlarının biyometrik güvenlik sistemlerini atlatmak ve insanların çevrimiçi hizmetlerini hacklemek için derin sahte görüntüler ve emülatörler kullandığını ortaya çıkardı.
iProov tarafından hazırlanan bir raporda, böcekler arasında bu yolun kullanımının 2023’ün ilk ve ikinci yarısı arasında yüzde 353 oranında arttığı belirtiliyor.
İşleyiş şekli şöyle: Dolandırıcılar, nispeten ikna edici yüz taklitleri ve deepfake’ler oluşturmak için bazıları ucuz, hazır çözümler olan Yapay Zeka (AI) araçlarını kullanıyor. Daha sonra sanal kameralar oluşturmak için emülatörler kullanıyorlar. Bu nedenle, bir biyometri sistemi bir kişiden yüz taraması yoluyla kimlik doğrulamasını istediğinde, yüz takas görüntüsünü içeren geçersiz kamerayı açabilir ve böylece aracıyı kimlik doğrulaması konusunda kandırabilir.
Mobil platformların bu tehdide karşı özellikle savunmasız olduğu görülüyor. Mobil ağa yönelik enjeksiyon saldırıları, 2023’ün ilk ve ikinci yarısı arasında iki kattan fazla artmış görünüyor. Emülatörler hariç tutulduğunda ve yalnızca deepfake ve yüz değiştirme saldırılarına bakıldığında rakamlar daha da kötüleşiyor. İki dönem arasında bu saldırılarda yüzde 704’lük bir artış olduğu görülüyor. Son olarak, meta veri sahteciliği içeren deepfake medyanın kullanımı geçen yılın iki yarısı arasında yüzde 672 arttı.
Raporda ayrıca bilgisayar korsanlarının bu tekniği geliştirmek ve geliştirmek için yakın işbirliği içinde olduğu belirtiliyor. Görünen o ki, insan tanımlama ve video tanımlama sistemlerini bypass etme konusunda bilgi alışverişinde bulunan grupların sayısında önemli bir artış var. Şirket, iProov analistlerinin tespit ettiği kümelerin neredeyse yarısının 2023 yılında kurulduğunu belirtiyor.