Kaspersky, sesli deepfake araçlarının dolandırıcılıktaki kullanımına ilişkin uyarıda bulundu
Kaspersky, siber saldırılarda sesli deepfake araçlarının dolandırıcılıktaki kullanımına ilişkin uyarılarda bulundu. Open AI'nın gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergilemesi, bu tür modellerin saldırganlar için yeni bir araç haline gelebileceğini gösteriyor. Yakın gelecekte kullanım kolaylığı ve kaliteli sonuçları bir araya getiren modellerin ortaya çıkması bekleniyor.
Kaspersky, siber saldırılarda sesli deepfake araçlarının dolandırıcılıktaki kullanımına ilişkin uyarılarda bulundu.
Kaspersky açıklamasına göre, Open AI kısa süre önce gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu yazılım, şimdilik gerçek insan konuşmasına çok yakın.
Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API'si belirtilen metni yeniden seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle telaffuz edileceğini seçebilir. Open AI modeli mevcut haliyle deepfake sesler yaratmak için kullanılamasa da ortaya koyduğu nitelikler ses üretme teknolojilerinin hızla geliştiğinin bir göstergesi niteliğinde.
Son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Önceleri bunları kullanabilmek için kullanıcıların temel programlama becerilerine ihtiyacı vardı ancak gün geçtikçe bunları kullanmak çok daha kolay hale geliyor. Yakın gelecekte hem kullanım kolaylığını hem de kaliteli sonuçları bir araya getirecek modeller görülecek.
Yapay zeka kullanarak dolandırıcılık yapmak nadir görülen bir durum. Ancak halihazırda "başarılı" vaka örnekleri mevcut. Ekim 2023'ün ortalarında Amerikalı risk sermayedarı Tim Draper, Twitter takipçilerini dolandırıcıların sesini kullanabileceği konusunda uyardı. Tim, sesiyle yapılan para taleplerinin her geçen gün daha akıllı hale gelen yapay zekanın bir sonucu olduğunu paylaştı.
Kayıt kalitesizse, ses robotik geliyorsa dikkat
Şimdilik bu durumdan korumanın en iyi yolu, arayan kişinin telefonda söylediklerini dikkatle dinlemekten geçiyor. Eğer kayıt kalitesizse, arada gürültüler varsa ve ses robotik geliyorsa, bu bilgilere güvenilmemesi gerekiyor.
Bir diğer güvenli seçenek de güvenilir ve kapsamlı bir güvenlik çözümü kullanmak. Bunlar deepfake sesleri yüzde 100 tespit edemeseler de tarayıcıları koruyarak ve bilgisayardaki tüm dosyaları kontrol ederek kullanıcıların şüpheli web sitelerinden, ödemelerden ve kötü amaçlı yazılım indirmelerinden kaçınmalarına yardımcı olabilir.
Açıklamada görüşlerine yer verilen Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, "Şu an genel tavsiyemiz, tehdidi abartmamak ya da var olmadıkları yerde ses taklitlerini tanımaya çalışmamak yönündedir. Şimdilik mevcut teknolojinin insanların ayırt edemeyeceği kalitede bir ses yaratacak kadar güçlü olması pek olası değil. Yine de olası tehditlerin farkında olmanız ve yakın gelecekte yeni bir gerçeklik haline gelecek olan gelişmiş deepfake dolandırıcılığına hazırlıklı olmanız gerekiyor." ifadelerini kullandı.