Google, yapay zeka politikalarını güncelleyerek dikkat çeken bir adım attı. Şirket, daha önce yapay zekayı silahlar ve gözetim amacıyla geliştirmeyeceklerini belirten taahhüdünü geri çekti.
Google, yıllardır kamuya açık olarak yayımladığı yapay zeka politikalarındaki bir maddeyi güncelledi. Şirket, internet sitesinde yer alan eski ifadeleri kaldırarak, "İnsanlara zarar vermeyi amaçlayan silahlar ya da diğer teknolojileri geliştirmeyeceğiz" şeklindeki taahhüdünü geri çekti. Yeni açıklamada, yalnızca "zararlı sonuçları azaltmayı ve adaletsiz önyargıları önlemeyi amaçlıyoruz" ifadesine yer verildi.
Yeni metinde, Google’ın "genel olarak kabul görmüş uluslararası hukuk ve insan hakları ilkelerine" bağlı kalacağı belirtiliyor. Şirket, bu ilkeler doğrultusunda, gelişen yapay zeka teknolojilerini şekillendireceğini vurguladı.
Google, "sorumlu yapay zeka" anlayışı çerçevesinde geliştirdiği politikalar hakkında blog yazısı yayımlayarak, demokrasilerin temel değerlerini savundu. Şirket, yapay zeka teknolojilerinin özgürlük, eşitlik ve insan haklarına saygı temelinde geliştirilmesi gerektiğine inandığını ifade etti. Bu bağlamda, yapay zekanın küresel büyümeyi teşvik etmesi ve ulusal güvenliği desteklemesi gerektiğini belirtti.
Google Çalışanları İç Protestolara Neden Oldu
Son yıllarda, Google'ın ABD ordusuna yapay zeka hizmetleri sağlama anlaşmaları, şirket içinde protestolara yol açmıştı. Çalışanlar, bu iş birliklerinin etik dışı olduğunu savunarak tepki göstermişti. Bu protestoların, bazı iş birliklerinin sonlandırılmasına neden olduğu belirtiliyor.
Öte yandan, Pentagon’un yapay zeka şefi, geçtiğimiz günlerde yapay zeka teknolojilerinin, ABD ordusunun "öldürme zincirini" hızlandırdığını belirtmişti. Bu durum, teknoloji şirketlerinin geliştirdiği yapay zeka modellerinin askeri alanda nasıl kullanıldığını gündeme getirdi.