Haber: Damla Oya Erman

Dolandırıcılar, hedefledikleri bireylerin seslerini sosyal medya üzerinden klonlamak için yapay zeka araçlarına başvuruyor ve ardından ailelerini veya arkadaşlarını panik içinde arayarak, habersiz kurbanlarından para veya hassas bilgilere erişim talep ediyorlar.Kimlik hırsızlığı koruma ve kredi puanı izleme firması IdentityIQ'nun Baş İnovasyon Sorumlusu Mike Scheumack, FOX Business'a yaptığı açıklamada, "Yapay zeka uzun bir süredir var ve yazılım şirketleri teknolojiyi ilerletmek için kullanıyorlar. Ancak son bir yılda, bu tür siber suçlara yönelik hızlı bir artış gözlemledik" dedi.

Scheumack, "Gelişmiş dolandırıcılık ve hedefe yönelik phishing saldırılarına tanık olduk. Ayrıca geçen yıl içinde yapay zeka destekli ses klonlama dolandırıcılığının arttığını gördük ki bu son derece endişe verici bir konu" diye ekledi.

Ses klonlama dolandırıcılığı yapan kişiler, genellikle bir kişinin sesini kaydediyor veya sosyal medya veya internetin başka bir yerinden bir ses kaydı buluyorlar. Scheumack, "Sadece 3 saniye kadar süre yeterli, ancak 10 saniye daha iyi bir sonuç verir. Bu süre zarfında sesin gerçekçi bir klonunu elde etmek mümkün" şeklinde açıklama yaptı. Ardından, ses örneği bir yapay zeka programından geçirilir ve dolandırıcı, yazdıklarını söylemesinin yanı sıra klonlanmış sese güldürme, korku ve diğer duygular ekleyebilir.

KimlikIQ, yapay zeka destekli ses klonlama programlarının ne kadar sofistike olduğunu göstermek için bir örnek sunuyor. Bu örnekte, bu yaz "Fox News Rundown" podcast'inde verdiğim bir röportajdan alınan bir ses örneği kullanılarak bir yapay zeka ses klonu oluşturuluyor. Klon, ailesine kurgusal bir kaza sonrası nakit uygulama transferi isteyen bir panik telefon görüşmesi yapıyor.

Dolandırıcıların amacı, acil bir durum olduğunu düşündürmek ve sevdiklerinin tehlikede olduğu algısını yaratmaktır. Bu tür durumlarla başa çıkmak için Scheumack, "En iyi yaklaşım, telefonu kapatmak ve hemen sevdiklerinizi arayarak gerçekten o kişi olup olmadığını doğrulamaktır" dedi.

Scheumack, IdentityIQ'nun yaptığı bir röportajda belirttiği son örneği paylaştı. Bu örnekte, bir kadın, kamp yapmak üzere olduğunu sosyal medyada paylaşan kızının panik içindeki bir aramasını aldığını düşünüyordu, ancak aslında bu bir yapay zeka tarafından üretilen ses klonuydu. Dolandırıcılar, kızın sosyal medyada kamp yapacağına dair yaptığı paylaşımdan yararlandı ve bu detayı kullanarak aramayı daha gerçekçi hale getirdi.

Yapay zeka ses klonlama dolandırıcılığı yapan kişiler, ayrıca kişiler ve işletmeler hakkında bilgi toplamak için internet üzerinde araştırma yapmak için yapay zeka programlarını kullanıyorlar. Bu, dolandırıcıların habersiz kurbanlarına daha inandırıcı aramalar yapmak için kullanabilecekleri ayrıntıları bulmalarına yardımcı oluyor.

Ulaştırmanın bütün modlarında yapay zeka kullanımı artıyor Ulaştırmanın bütün modlarında yapay zeka kullanımı artıyor

Scheumack, "Korkutucu olan, bunun yan komşunuz tarafından yapılan bir şey olmadığıdır... Bu, sofistike bir organizasyon, tek bir kişi değil. Sosyal medyada araştırma yapan ve insanların verilerini toplayan insanlar var. Bu, sesinizi taklit eden başka bir kişinin olduğu kişiler değil. Ayrıca arama işlemini gerçekleştiren başka biri var ve dolandırma işlemi çalışıyorsa kurbanın evine para almak için gelen bir kişi daha var" diye açıkladı.

Yapay zeka ses klonlama dolandırıcılığına karşı bireylerin alabileceği önlemler hakkında Scheumack, herkesin kamuya açık olarak ne paylaştığına dikkat etmesi gerektiğini ve bilinmeyen bir numaradan gelen acil bir aramaya cevap vermeden önce iki kez düşünmesi gerektiğini belirtiyor. Ayrıca, ailelerin acil durumlarını doğrulamak için kullanabileceği bir şifre türü düşünmelerini tavsiye ediyor. Bu şifre, arayan kişinin gerçekten iddia ettiği aile üyesi olduğunu doğrulamak için kullanılabilir.