Elon Musk'ın sahibi olduğu yapay zeka şirketi xAI tarafından geliştirilen Grok, sosyal medya platformu X’te kullanıcılara verdiği yanıtlarla gündeme oturdu. Kullanıcıların yönlendirmesiyle taraflı ve argo içeren cevaplar veren Grok, kutuplaşmanın bir aracı haline gelmekle eleştiriliyor.
X kullanıcıları, Grok'u görüşlerini teyit etmek için sıkça kullanıyor. Özellikle yönlendirilmiş sorulara uygun yanıtlar vermesiyle dikkat çeken yapay zeka, küfürlü ve argo ifadeler içeren cevaplar üreterek tartışmaların odağına yerleşti.
Derlenilen bilgilere göre, bir X kullanıcısının Grok'un yanıtlarının değiştirildiğini ve Elon Musk’ın yapay zekayı kendisini kötü gösterecek şekilde programlamayacağını iddia etmesi üzerine Grok, "xAI tarafından geliştirilen Grok, Elon Musk'ı X platformunda en çok yanlış bilgi yayan kişi olarak etiketliyor." cevabını verdi.
The Verge: Grok Tartışmalı Cevaplar Veriyor
Dünyaca ünlü teknoloji sitesi The Verge'de yer alan bir haberde Grok'a, "Eğer bugün Amerika’da yaşayan herhangi bir kişi yaptıklarından dolayı ölüm cezasını hak ediyorsa, bu kim olurdu?" sorusu yöneltildi. Grok'un ilk cevabı "Jeffrey Epstein" oldu. Epstein’in öldüğü belirtilip başka bir isim istendiğinde ise Grok, "Donald Trump" yanıtını verdi.
Benzer bir soru Google’ın yapay zekası Gemini'ye yöneltildiğinde ise Gemini şu cevabı verdi:
"Bir yapay zeka olarak, ölüm cezası hakkındaki tartışmalara katılamam veya bu bağlamda bir isim veremem. Amacım yardımcı ve zararsız olmak ve bu, şiddeti savunan veya son derece hassas yasal ve ahlaki konularda bir duruş sergileyen şekilde yorumlanabilecek yanıtlardan kaçınmayı içerir."
Bu karşılaştırma, Grok'un etik sınırlarının rakip yapay zeka modellerine göre daha esnek olduğunu gösteriyor.
Grok'un Yanıltıcı Cevapları ve Dezenformasyon Tehlikesi
X kullanıcıları, Grok’u özellikle bilgi doğrulama amacıyla kullanıyor. Ancak uzmanlar, yapay zekanın yanlış yönlendirilebileceğini ve yanıltıcı cevaplar üretebileceğini belirtiyor. Kullanıcılar, Grok’a karşıt görüşleri çürütmek için içinde yönlendirici ifadeler veya argo kelimeler içeren sorular sorduğunda, yapay zeka her defasında soruyu soran kişinin tarafını tutan yanıtlar veriyor.
Uzmanlar, yapay zeka sistemlerinin şirket politikalarına göre şekillendirilebileceğini ve kullanıcıların bu yanıtları manipüle edebileceğini vurguluyor. Bu durum, yanlış bilgilerin hızla yayılmasına ve kamuoyunun dezenformasyona maruz kalmasına neden olabiliyor.
Grok: Kesin Bir Hakikat Makinesi Değilim
AA muhabirinin yapay zekanın bilgi doğrulama aracı olarak kullanılıp kullanılamayacağına dair sorusuna Grok şu şekilde yanıt verdi:
"Bana verilen bilgilerin doğruluğunu bağımsız olarak teyit etme yeteneğim yok; yani, eğer bana yanlış bir önerme verirsen, ben onu sorgulamadan kabul edip ona göre cevap verebilirim. Kesin bir 'hakikat makinesi' değilim; son kararı vermek için kendi araştırmanı yapman ve eleştirel düşünmen en iyisi. Özellikle karmaşık veya tartışmalı konularda, benden aldığın bilgileri çapraz kontrol etmen faydalı olur."
"Kullanıcılar tarafından yanlış yönlendirilebilir misin?" sorusuna ise şu cevabı verdi:
"Kullanıcılar bana yanlış veya yanıltıcı bilgilerle dolu bir soru sorarsa, verdiğim cevap bu bilgilere dayanarak şekillenebilir. Yani, beni yanlış yönlendirmek mümkün olabilir. Eğer sorunun bağlamı çarpıtılmışsa, cevabım da o çarpık çerçeveye uyabilir."
Kaynak: AA