FTC, Yapay Zeka Yarışına Müdahale Etti
Amerika Birleşik Devletleri Federal Hükûmetine bağlı Federal Ticaret Komisyonu (FTC), OpenAI’nin haksız veya yanıltıcı veri güvenliği uygulamalarında bulunup bulunmadığını veya tüketicilere zarar riski oluşturup oluşturmadığını araştırmak için bir soruşturma başlattığı, Washington Post’un Perşembe günü yayınladığı belgelerle ortaya çıktı.
FTC, OpenAI’dan, 2020 ortasından bu yana her büyük dil modelini eğitmek ve geliştirmek için kullandığı verileri, verileri nasıl elde ettiğini, verilerde yer alan içerik kategorilerini ve veri kaynaklarını tanımlama ve denetleme için politika ve prosedürlerini ayrıntılı olarak anlatmasını istedi.
Söz konusu sorunun temelinde, OpenAI’nin GPT-4 gibi büyük dil modellerinin kullanıcı sorgularına yanıt olarak bilgi uydurma (“halüsinasyon”) eğilimi yer alıyor. FTC, tüketicileri koruma görevi çerçevesinde, OpenAI’nin halüsinasyonları için “itibar zararı” doğmaması için neler yaptığını araştırıyor. Bu araştırmayı da tetikleyen olay ChatGPT’nin son zamanlarda belirli kişiler hakkında yanlış ve zararlı bilgiler vermesi üzerine açılan davalar da etkili olduğu düşünülüyor.
FTC, OpenAI gerçekten herhangi bir Büyük Dil Modelinin ‘halüsinasyon’ eğilimini veya herhangi bir hatalı kişisel bilgiyi düzeltmek veya hatayı gidermek için herhangi bir çalışması var mı diye cevap istenmiş. FTC ayrıca OpenAI’den gerçek bireyler hakkında yanlış, yanıltıcı veya küçümseyici ifadeler oluşturma risklerini hafifletmek için atılan adımları sorulmuş.
Şirketin kişisel bilgilerin saklanması, API entegrasyonları ve eklentileri, riskleri değerlendirme ve ele alma süreçleri ile model geliştirme ve eğitimle ilgili bilgi talepleri bulunmaktadır. Ajans, organizasyon şemalarından sözleşme anlaşmalarına kadar geniş kapsamlı belgeler talep etmiştir.
Washington Post tarafından yayınlanan soru listesi
Yapay Zekaya Tepkisel Kararlar
Mart ayında, teknoloji profesyonelleri, yapay zeka teknolojisinin risklerini daha iyi anlamak için GPT-4’ten daha güçlü yapay zeka sistemlerinin eğitimini hemen durdurma çağrısı yaptılar. Ardından Mayıs ayında, 300’den fazla yapay zeka bilim insanı ve üst düzey yönetici, yapay zeka risklerini pandemilere ve nükleer savaşa eşdeğer kılan ve küresel liderleri çağıran bir çevrimiçi bildiri imzaladılar.
İtalya, Kanada, Fransa, Avustralya ve İspanya, OpenAI’nin veri uygulamalarına yönelik soruşturmalar başlatmış durumda. İtalyan Denetim Otoritesi, şirketin Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği’ni ihlal ettiğinden şüphelenerek OpenAI’ın İtalyan kullanıcılarının verilerini işlemesini geçici olarak yasakladı. Yasağın kaldırılması, OpenAI’nın kullanıcılara veri saklama üzerinde daha fazla kontrol hakkı vermesinin ardından gerçekleşti.
Yapay Zeka Geliştiricilerinin Dikkat Etmesi Gerekenler
Düzenleyici çabalar devam ederken, işletmeler üretken yapay zeka teknolojisini benimsemektedir. ABD’de şirketlerin çoktan üretken yapay zeka etrafında politika ve stratejiler belirlediğini veya bunu yapma sürecinde oldukları bilinmektedir.
Üretken yapay zeka uygulaması, teknoloji liderleri için kolay bir iş değildir. İşleri doğru yapmak için, şirketlerin veri gizliliği ve güvenliği, beceri açıklıkları, bütçe sınırlamaları ve gelişen bir düzenleyici manzara ile ilişkili riskleri değerlendirmeleri gerekmektedir.
FTC soruşturması çözülene kadar, bu durum OpenAI’nin modellerini benimseyen kuruluşlar ve bir dereceye kadar tüm üretken yapay zeka modelleri için risk oluşturacaktır.
İşletmelerin teknolojiyi inşa etmeyi, satın almayı veya şu anda kullanmayı seçmeleri durumunda, şeffaflık, hesap verebilirlik, güvenlik, açıklanabilirlik ve güvenilirlik standartlarını sağlamaları gerekiyor.