"Haberin İşçisi, İşçi Haber."
İstanbul
Parçalı az bulutlu
15°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
34,5087 %0.13
36,4694 %0.3
3.362.972 %2.933
2.956,78 0,74
Ara
İşçi Haber Dünya Sanal karaktere aşık olup intihar etti! Yapay zeka şirketinden açıklama geldi

Sanal karaktere aşık olup intihar etti! Yapay zeka şirketinden açıklama geldi

ABD'de bir genç "Character.AI"ın ürettiği yapay zeka temelli konuşma botundaki sanal karaktere aşık olarak intihar etti. Yaşamına son veren gencin annesi, şirkete dava açtı.

ABD'nin Florida eyaletinde, oğlunun sanal karaktere aşık olup intihar ettiğini iddia eden anne, şirkete dava açtı.

New York Post gazetesinin haberine göre, yapay zeka temelli konuşma botu Character.AI'in sahibi olduğu şirket, "aşırı cinselleştirilmiş" ve "aşırı gerçekçi" deneyimlerle çocukları hedef aldığı gerekçesiyle açılan davayla karşı karşıya kaldı.

İNTİHAR EDEN ÇOCUĞUN ANNESİ ŞİRKETE DAVA AÇTI

"Character.AI"ın ürettiği yapay zeka temelli konuşma botundaki sanal karakterin, şubat ayında gönderdiği "En kısa sürede evine dön." mesajının ardından Sewell Setzer III isimli çocuğun, silahla intihar etmesinden aylar sonra Setzer'in annesi şirkete dava açtı.

Sanal karakterin kendisini "gerçek insan, lisanslı psikoterapist ve yetişkin sevgili" olarak tanıttığını iddia eden anne, çocuğunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin kimseyi bilgilendirmemesinden şikayetçi olduğunu ifade etti.

“ŞİRKET OLARAK KULLANICILARIMIZIN GÜVENLİĞİNİ ÇOK CİDDİYE ALIYORUZ”

Character.AI sözcüsü ise yaptığı açıklamada, "Kullanıcılarımızdan birinin trajik ölümünden dolayı oldukça üzgünüz. Ailesine başsağlığı diliyoruz. Şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz." değerlendirmesinde bulundu.

Şirket, "rıza dışı cinsel içeriğe, cinsel eylemlerin grafiksel veya spesifik tanımlarına, intiharın teşvik ve tasvir edilmesine" izin verilmediğini bildirdi.

Şirketin siber güvenlik müdürü Jerry Ruoti de, sisteme reşit olmayan kullanıcılar için ek güvenlik önlemleri ekleyeceklerini duyurdu.

BABASININ SİLAHIYLA HAYATINA SON VERMİŞTİ

Daha önce sanal karakterle konuşmalarında intihara meyilli düşüncelerini paylaşan Setzer, babasının silahıyla hayatına son vermişti.

Konuya ilişkin haberlerde, hafif derecede Asperger sendromu bulunan Setzer'in, konuştuğu sanal karaktere duygusal hisler beslemeye başladığı, ailesi ve arkadaşlarından koparak kendini dış dünyaya kapattığı kaydedilmişti.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *