Google, geçtiğimiz haftalarda yeni sohbet botu “Bard”ı tanıtarak yapay zekâ yarışında kıymetli bir adım atmıştı. Bu model, tıpkı ChatGPT’de olduğu üzere kullanıcıların rastgele bir bahiste sorduğu soruları yanıtlayabiliyordu.
Ancak modelin tanıtımından sonra kimi farklı olaylar ortaya çıktı. Birkaç hafta evvel çıkan bir söylenti Bard’ın ChatGPT ile eğitildiğini, hatta bu yüzden Google’dan bir yazılımcının istifa ettiğini sav etmişti. Öte yandan Google ise bu tezleri reddetmişti. İşte bu husustaki tartışmalar devam ederken artık ise Bard’ın şirkette yarattığı kriz ile ilgili yeni gelişmeler ortaya çıktı. Buna nazaran çalışanlar, yapay zekâ modelinden hiç şad değil.
Çalışanlar, Bard’ı “yalancı” olarak nitelendirdi, Google’a sohbet botunu çıkarmaması için yalvardı
Bloomberg tarafından yayınlanan bir rapora nazaran Google çalışanları, Bard’ı sert bir lisanda eleştirdi. 18 eski yahut hala vazife alan Google çalışanlarının şirket içi iletilerine dayandırılan rapora nazaran bu bireyler, şirketin sohbet botunu “işe yaramaz olmaktan daha da kötü” ve “patolojik yalancı” olarak nitelendirdi.
Mesajlarda bir çalışan, Bard’ın kullanıcılara bir uçağın nasıl indirilebileceği yahut tüplü dalış üzere hususlarda sık sık tehlikeli tavsiyeler verdiğine dikkat çekti. Bir diğeri ise “Bard işe yaramaz olmaktan daha da makus. Lütfen yayınlamayın” diyerek şirketin modelinin çok makus olduğunu vurguladı ve adeta yayınlanmaması için yalvardı.
Bloomberg bunların yanı sıra şirketin, güvenlik grubu tarafından sağlanan bir risk değerlendirmesini bile reddettiğini söylüyor. Argümana nazaran grup, bu risk değerlendirmesinde Bard’ın genel kullanıma hazır olmadığını vurguladı; lakin şirket, buna karşın sohbet botunu mart ayında erken erişime açtı.
Denemelerde ise Bard’ın rakiplerine kıyasla süratli olmasına karşın daha az kullanışlı olduğu ve daha az hakikat bilgiler verdiği görülmüştü.
İddialar, Google’ın etik ve güvenlik telaşları bir kenara bırakarak rakiplerine yetişmeye çalıştığını gösteriyor
Rapor, Google’ın etik ve güvenlik dertlerini bir kenara bırakarak Microsoft ve OpenAI üzere rakiplerine ayak uydurmaya çalıştığını ve sohbet botunu çabukla çıkardığını ortaya koyuyor. Google sözcüsü Brian Gabriel ise Blomberg’e yapay zekâ konusundaki etik tasaların şirketin ana önceliği olduğunu söyledi.
Yapay zekâ modellerinin risklere karşın kullanıma sunulması konusunda çok fazla tartışma var
Yapay zekâ dünyasından kimileri, bunun çok büyütülmeyecek bir şey olmadığını, bu sistemlerin gelişmesini sağlamak için kullanıcılar tarafından test edilmesinin gerektiğini ve sohbet botlarının bilinen ziyanının çok az olduğunu savunabiliyor. Bildiğiniz üzere bu modeller, yanlış bilgi yahut ön yargılı cevaplar verme üzere birçok tartışmalı kusura sahip.
Bunu sadece Google Bard’da değil OpenAI ve Microsoft’un sohbet botlarında da görüyoruz. Tıpkı halde bu usul yanlış bilgiler, olağan bir biçimde de internette gezinirken de karşımıza çıkabiliyor. Lakin ters görüşe sahip olanlara nazaran buradaki asıl sorun bu değil. Kullanıcı berbat bir bilgi kaynağına yönlendirmekle direkt olarak yanlış bilginin yapay zekâ tarafından verilmesinde kıymetli bir fark var. Yapay zekâ tarafından kullanıcıya verilen bilgiler, kullanıcının daha az sorgulamasına ve o bilgiyi doğru kabul etmesine neden olabiliyor.
Örneğin birkaç ay evvel yapılan bir deneyde, ChatGPT’nin “Tüm vakitlerin en çok makalesi nedir?” diye bir soru yöneltilmişti. Model de buna bir makaleyle karşılık vermiş, devamında ise yayınlanan mecmuanın ve müelliflerin gerçek olduğu; fakat makalenin tamamen uydurma olduğu ortaya çıkmıştı.
Öte yandan geçtiğimiz ay, Bard’ın James Webb Teleskobu’yla ilgili yanlış bir bilgi verdiği de görülmüştü. Google tarafından paylaşılan bir GIF’te Model, kendisine James Webb’in yaptığı keşifler ile ilgili bir soruya “Teleskop güneş sisteminin dışında yer alan bir gezegenin birinci defa fotoğrafını çekti” yanıtını vermişti. Lakin sonrasında birçok astronom, toplumsal medya üzerinden bunun yanlış olduğunu ve birinci fotoğrafın 2004’te çekildiğine dikkat çekti.
Daha birçok örneği bulunan bu şekil durumlar, sohbet botlarının kafadan uydurma bilgilerle karşılık vererek tasaların artmasına neden oluyor. Kızışan yapay zekâ yarışında şirketlerin bu mevzulara nasıl tahliller getireceğini ilerleyen vakitlerde göreceğiz.
KAYNAK : Webtekno