FBI, bilgisayar korsanlarının ChatGPT gibi üretken yapay zeka araçlarını kullanarak hızla kötü amaçlı kod oluşturdukları ve geçmişte çok daha fazla çaba gerektiren siber suçları daha kolay işledikleri konusunda uyarıda bulundu. FBI, gazetecilerle yaptığı bir görüşmede endişelerini ayrıntılı olarak dile getirdi ve yapay zekalı sohbet robotlarının, dolandırıcıların ve sahtekarların tekniklerini mükemmelleştirmelerinden, teröristlerin daha zarar verici kimyasal saldırıları nasıl gerçekleştirecekleri konusunda bu araçlara danışmalarına kadar her türlü yasadışı faaliyeti körüklediğini açıkladı. "YAPAY ZEKA MODELLERİ GELİŞTİKÇE BU EÐİLİMLER ARTACAK" Üst düzey bir FBI yetkilisine göre "Yapay zeka modellerinin benimsenmesi ve demokratikleşmesi devam ettikçe, bu eğilimlerin zamanla artacağını düşünüyoruz." Yetkililer, kötü niyetli kişilerin, sevdiklerini veya yaşlıları dolandırmak amacıyla güvenilir kişilerin kimliğine bürünmek için yapay zeka ses jeneratörlerini kullanmak da dahil olmak üzere, normal suç faaliyetlerini daha iyi yapabilmek için yapay zekayı kullandıklarını belirtti. Öte yandan internet kullanıcılarını hedef almak için özel olarak tasarlanmış hacker yapımı yapay zeka yazarlarının sayısında da önemli bir artış olduğu kaydedildi. GPT-4 İLE İKNA EDİCİ DEEPFAKE'LER OLUŞTURULABİLİYOR GPT-4 gibi multimodal modellerin piyasaya sürülmesiyle, bilgisayar korsanları kurbanları hassas bilgiler, ödeme ve daha fazlasını vermeye zorlamak için ikna edici deepfake'ler oluşturabilmektedir. Bu yılın başlarında Meta, yeni konuşma üretme aracı Voicebox'ın ciddi zararlar verebileceği endişesiyle gerekli önlemler alınmadan kullanıma sunulmaması gerektiğini duyurmuştu.
Misafirler için gizlenen link, görmek için
Giriş yap veya üye ol.