OpenAI CEO'su Sam Altman, şirketinin GPT-4 adlı en son dil modelini açıklamasından iki gün sonra ABC News'e konuştu.

"Yapay zeka konusunda dikkatli olmalıyız. Chat GPT-4 çeşitli profesyonel ve akademik ölçütlerde insan düzeyinde performans sergiliyor. Bu modellerin özellikle büyük ölçekli dezenformasyon için kullanılabileceğinden  endişeliyim. Artık bilgisayar kodu yazmakta daha iyi hale geldiklerine göre, saldırgan siber saldırılar için kullanılabilirler" dedi.

Altman, şirketinin yapay zeka konusunda "güvenlik sınırları" koymak için çalıştığını söyledi ve "Bence insanlar bundan biraz korktuğumuz için mutlu olmalı" dedi.

Şu anda, GPT-4 sınırlı sayıda kullanıcıya deneme amaçlı olarak sunuluyor.

İlk raporlar, modelin selefinden önemli ölçüde daha güçlü ve potansiyel olarak daha tehlikeli olduğunu gösteriyor.

ChatGPT'nin yaratıcısından korkutan açıklama

 

ChatGPT’nin yaratıcısından '10 yıl' için 180 milyon dolar

 

O ülke ChatGPT'yi yasakladı