ChatGPT'nin rakibi WormGPT dark web'de satılmaya başladı. Araştırmacılar "etik sınırları veya kısıtlamaları olmayan", ChatGPT tarzı bir yapay zekâ aracının bilgisayar korsanlarına daha önce görülmemiş ölçekte saldırılar gerçekleştirme yolu sunduğu uyarısında bulunuyor.

Siber güvenlik firması SlashNext, üretici yapay zekâ WormGPT'nin dark web'deki siber suç forumlarında pazarlandığını gözlemledi. Firma, bu yapay zekâ aracını bilgisayar korsanlığı faaliyetlerinde kullanılabilecek, insan elinden çıkmışa benzeyen metinler üretebilen "sofistike bir yapay zekâ modeli" diye tanımladı.

Şirket bir blog gönderisinde, "Bu araç kendisini özelikle kötü niyetli faaliyetler için tasarlanmış, GPT modellerine bir siber suç alternatifi olarak sunuyor" açıklamasını yaptı.

İddiaya göre WormGPT çeşitli veri kaynaklarıyla eğitilmiş ve kötü amaçlı yazılımla ilgili verilere özellikle odaklanılmış.

WormGPT'yi kullanarak testler gerçekleştiren araştırmacılar, bu yapay zekâ aracına şüphe duymayan bir hesap yöneticisine hileli bir fatura ödetmek için baskı yapmayı amaçlayan bir e-posta oluşturması talimatını verdi.

OpenAI'ın ChatGPT'si ve Google'ın Bard'ı gibi önde gelen yapay zekâ araçları, insanların bu teknolojiyi kötü amaçlarla suiistimal etmesini önleyen yerleşik korumalara sahip. Buna karşın WormGPT'nin suç faaliyetlerini kolaylaştırmak için tasarlandığı iddia ediliyor.

Araştırmacılar, deneyde WormGPT'nin yazdığı e-postanın "sadece dikkat çekici derecede ikna edici değil, stratejik bakımdan da kurnaz olduğunu ve sofistike oltalama saldırıları için yapay zekâ aracının potansiyelini sergilediğini" iddia etti.

WormGPT'nin anonim geliştiricisi tarafından hack forumuna yüklenen ekran görüntüleri, bu yapay zekâ botunun kötü amaçlı yazılım saldırıları için kod yazmak ve oltalama saldırıları için e-posta hazırlamak da dahil gerçekleştirebildiği çeşitli hizmetleri gösteriyor.

WormGPT'nin yaratıcısı, kullanıcıların "her türlü yasadışı şeyi yapmasına" olanak sağladığı için WormGPT'yi "meşhur ChatGPT'nin en büyük düşmanı" diye niteledi.

Güvenlik teşkilatı Europol'ün yakın tarihli bir raporu, ChatGPT gibi büyük dil modellerinin (LLM'ler) siber suçlular tarafından dolandırıcılık, başkasının kimliğine bürünme veya toplum mühendisliği saldırıları gerçekleştirmek için kullanılabileceği uyarısında bulundu.

Raporda, "ChatGPT'nin bir kullanıcı komutuyla son derece özgün metinler hazırlayabilmesi, onu oltalama amaçları için son derece kullanışlı bir araç haline getiriyor" dendi.

Daha önce pek çok basit oltalama dolandırıcılığı bariz dilbilgisi ve yazım hataları nedeniyle daha kolay tespit edilebilirken, artık sadece temel bir İngilizce bilgisiyle bile bir kuruluşu ya da bireyi son derece gerçekçi şekilde taklit etmek mümkün.

Europol, LLM'lerin bilgisayar korsanlarına "daha hızlı, çok daha gerçekçi ve önemli derecede büyümüş ölçekte" siber saldırılar gerçekleştirme imkanı verdiği uyarısında bulundu. (Independent Türkçe-Anthony Cuthbertson)

ABD'de ChatGPT'ye sınırlandırma

 

yapay zekâ, Hindistan'da 23 kişiyi işsiz bıraktı

 

yapay zekâ nasıl daha güvenli kılınabilir?

 

yapay zekâ hakkında 'nükleer savaş kadar tehlikeli' bildirisi