Geçtiğimiz bir kaç haftanın en çok konuşulan konularından birisi şüphesiz ChatGPT.
OpenAI tarafından geliştirilen chatbotun yeni versiyonunun başardığı harika işler teknoloji dünyasında büyük bir ses getirdi. Sosyal medyada konu ile ilgili bir çok paylaşıma denk geldim.
Geçtiğimiz hafta itibari ile 1 milyon insan ChatGPT’yi test etmek için OpenAI üzerinde hesap oluşturmuş. Bu etkinin bir süre daha devam edeceği görünüyor.
Peki harika içerik üreten Yapay Zeka araçları riskler oluşturuyor mu?
Evet, hem de çok.
Geliştirilen bir içeriği (text, image, voice ve video) insan mı geliştirdi yoksa Yapay Zeka’mı konusu büyük riskler taşıyor. Yapay Zeka bir insana söylemediği yada yapmadığı şeyleri söylemiş yada yapmış gibi gösterebilir. DeepFake teknolojileri ile artık bunlar mümkün.
AI Watermarks (Yapay Zeka Filigranları)
OpenAI, ChatGPT tarafından oluşturulan metin içeriğin Yapay Zeka tarafından oluşturulduğunu belirtebilmesi için bir algoritma üzerinde çalıştığını duyurdu. Yani ChatGPT’den aldığınız bir metni bir yerde kullandığınızda bunun Yapay Zeka tarafından üretildiği bilinecek.
Yapay Zeka’nın oluşturduğu içeriğin işaretlenmesi yeni bir konu değil. Ama ChatGPT’nin yaratttığı fırtına sonrasında yeniden gündeme oturdu.
Yapay Zeka’nın ürettiği içerikler kötü amaçlı kullanılabilir. Devletler ve toplumlar hakkında gerçek olmayan içerikler üretilebilir, bu içerikler yayınlanabilir. Toplum içerisinde düzeni bozmaya yönelik çalışmalar yapılabilir. Bunu engellemek için içeriklerin işaretlenmesi kritik öneme sahip.
Çin hükümeti, işaretlenmeyen Yapay Zeka içeriklerini yayınlamayacağını duyurdu. Benzer bir hareket de yazılım geliştirme sektörünün en bilindik sitelerinden olan StockOverflow’dan geldi. Uygulama, Yapay Zeka ile üretilmiş yanıtları kabul etmeyeceğini açıkladı.
Benzer uygulamaların ülkemizde de yapılması gerektiğini düşünüyorum. Bir yasaktan bahsetmiyorum tabiki ama kötü amaçlı içeriklerin mutlaka tespit edilmesi ve engellenmesi gerekiyor diye düşünüyorum.
Sonuç Olarak;
Yapay Zeka’daki gelişmelerle birlikte artık siber güvenlik alanındaki riskler de büyüyor. Bu nedenle burada ciddi gelişmeler ve ürünler ortaya çıkacak, bu alanın değeri daha yakından anlaşılacaktır.
Kaynak
OpenAI’s attempts to watermark AI text hit limits
China bans AI-generated media without watermarks