Microsoft, işletmelere OpenAI’nin güçlü AI dil modeli GPT-3’e erişim sağlıyor
Bir zamanlar yaratıcıları tarafından halka açıklanamayacak kadar tehlikeli görülen AI sistemidir. Şimdi Microsoft, Azure bulut araçları paketinin bir parçası olarak iş müşterilerinin kullanımına sunulan OpenAI’nin otomatik tamamlama yazılımı GPT-3’ün yükseltilmiş bir sürümünü yapıyor.
GPT-3, yeni nesil AI dil modellerinin en iyi bilinen örneğidir. Bu sistemler öncelikle otomatik tamamlama araçları olarak çalışır: İster bir e-posta ister şiir olsun, onlara bir metin parçası besleyin ve AI, yazılanları sürdürmek için elinden gelenin en iyisini yapacaktır. Bununla birlikte, dili ayrıştırma yetenekleri, belgeleri özetleme, metnin duyarlılığını analiz etme ve projeler ve hikayeler için fikirler üretme gibi diğer görevleri de üstlenmelerine olanak tanır – Microsoft’un yeni Azure OpenAI Hizmetinin müşterilere yardımcı olacağını söylediği işler.
İşte Microsoft’tan bir örnek senaryo:
“Bir spor serisi, taraftarlar için yorumların gerekçesini ve maçın önemli anlarının, önemli noktaların ve gerçek zamanlı analizlerin bir özetini sunan bir uygulama geliştirebilir. Pazarlama ekipleri daha sonra GPT-3’ün orijinal içerik üretme yeteneğini kullanabilir ve sosyal medya veya blog gönderileri için beyin fırtınası yapmalarına ve hayranlarla daha hızlı etkileşim kurmalarına yardımcı olabilir.”
GPT-3, OpenAI tarafından satılan bir API aracılığıyla bu tür işler için zaten kullanılıyor. Copy.ai gibi girişimler, GPT’den türetilen araçlarının, kullanıcıların iş e-postalarını ve sunum destelerini hazırlamalarına yardımcı olacağını vaat ederken, daha egzotik uygulamalar arasında kendi maceranı seç metin oyununu ve kurgu gibi davranan sohbet robotlarını güçlendirmek için GPT-3’ün kullanılması yer alıyor. TikTok etkileyicileri.
OpenAI, müşterilere en son yükseltmeleri sağlamak için GPT-3 için kendi API’sini satmaya devam ederken, Microsoft’un sistemi yeniden paketlemesi daha fazla destek ve güvenlik isteyen daha büyük işletmelere yönelik olacak. Bu, hizmetlerinin “erişim yönetimi, özel ağ oluşturma, veri işleme korumaları [ve] ölçeklendirme kapasitesi” gibi araçlar sunacağı anlamına gelir.
Bunun OpenAI’nin işini ne kadar bozabileceği belli değil, ancak iki şirketin zaten sıkı bir ortaklığı var. 2019’da Microsoft, OpenAI’ye 1 milyar dolar yatırım yaptı ve tek bulut sağlayıcısı oldu (hesaplama yoğun AI araştırması dünyasında hayati bir ilişki). Ardından, Eylül 2020’de Microsoft, GPT-3’ü doğrudan kendi ürünlerine entegre etmek için özel bir lisans satın aldı. Şimdiye kadar, bu çabalar GPT-3’ün kod oluşturma kapasitelerine odaklandı; Microsoft, sistemi PowerApps uygulamaları paketine ve Visual Studio Code düzenleyicisine otomatik tamamlama özellikleri oluşturmak için kullanıyor.
Bu sınırlı uygulamalar, GPT-3 gibi büyük AI dil modelleriyle ilişkili büyük sorunlar göz önüne alındığında anlamlıdır. Birincisi: Bu sistemlerin ürettiği şeylerin çoğu çöptür ve iyiyi kötüden ayırmak için insan küratörlüğünü ve gözetimini gerektirir. İkincisi: bu modellerin, cinsiyetçilikten İslamafobiye kadar eğitim verilerinde bulunan önyargıları içerdiği defalarca gösterilmiştir. Örneğin Müslümanları şiddetle ilişkilendirme ve modası geçmiş cinsiyet klişelerine boyun eğme olasılıkları daha yüksektir. Başka bir deyişle: Bu modellerle filtrelenmemiş bir formatta oynamaya başlarsanız, yakında kötü şeyler söyleyeceklerdir.
Microsoft, bu tür sistemler kamuoyuna açıklandığında neler olabileceğini çok iyi biliyor (ırkçı sohbet robotu Tay’ı hatırlıyor musunuz?). Bu nedenle, çeşitli güvenlik önlemleri getirerek GPT-3 ile bu sorunlardan kaçınmaya çalışıyor. Bunlar, yalnızca davet yoluyla aracı kullanmak için erişim verilmesini içerir; müşterilerin kullanım durumlarını incelemek; ve “hizmetin uygunsuz çıktıları veya istenmeyen kullanımlarını önlemeye yardımcı olacak filtreleme ve izleme araçları” sağlamak.
Ancak bu kısıtlamaların yeterli olup olmayacağı net değil. Örneğin, The Verge tarafından şirketin filtreleme araçlarının tam olarak nasıl çalıştığı veya GPT-3’ten uygunsuz çıktıları azaltabileceklerine dair herhangi bir kanıt olup olmadığı sorulduğunda, şirket soruyu geçiştirdi.
Washington Üniversitesi’nde geniş dil modelleri üzerine kapsamlı yazılar yazan bir hesaplamalı dilbilim profesörü olan Emily Bender, Microsoft’un güvencelerinin yetersiz olduğunu söylüyor. Bender, The Verge’e e-posta yoluyla “[Microsoft’un] basın bülteninde belirtildiği gibi, GPT-3’ün eğitim verileri potansiyel olarak ‘kaba dilden ırksal klişelere ve kişisel tanımlama bilgilerine kadar her şeyi’ içerir” dedi. “Bu eğitim verilerine dayanarak söyleyebileceklerinden sorumlu kişi veya şirket olmak istemem.”
Bender, Microsoft’un GPT-3’ü tanıtmasının, şirketin şeffaflık ilkesini içeren kendi AI etik yönergelerini karşılamadığını, yani AI sistemlerinin hesap verebilir ve anlaşılabilir olması gerektiğini belirtiyor. Buna rağmen, Bender, GPT-3’ün eğitim verilerinin tam bileşiminin bir gizem olduğunu ve Microsoft’un sistemin dili “anladığını” iddia ediyor – birçok uzman tarafından şiddetle tartışılan bir çerçeve. Bender, “Microsoft’un bu ürünü satmak için bu tür bir yapay zeka aldatmacasına yönelmesi beni endişelendiriyor” dedi.
Ancak Microsoft’un GPT-3 filtreleri kanıtlanmamış olsa da, müşterilerini dikkatli bir şekilde seçerek birçok sorundan kaçınabilir. Büyük dil modelleri, çıktıları insanlar tarafından kontrol edildiği sürece kesinlikle faydalıdır (ancak bu gereklilik, verimlilikte vaat edilen kazanımların bir kısmını ortadan kaldırır). Bender’ın belirttiği gibi, Azure OpenAI Hizmeti yalnızca “işletme yöneticilerine yönelik iletişim” yazmaya yardımcı oluyorsa, bu çok sorunlu değil.
“Bir video oyunu karakteri için oluşturulan dil konusunda dürüst olmak gerekirse daha çok endişelenirdim” diyor, çünkü bu uygulama büyük olasılıkla insan gözetimi olmadan yürütülecek. “Bu hizmeti kullanan herkesin, önceden kapsamlı testler yapmadan ve döngüdeki insanlar olmadan halka açık şekillerde kullanmaktan kaçınmasını şiddetle tavsiye ediyorum.”