14 yaşındaki bir çocuğun intiharından Character.AI’ı sorumlu tutan anne, yapay zekâ firmasını dava etti.
ABD’nin Orlando kentinde yaşanan bir olayda, dokuzuncu sınıfta okuyan 14 yaşındaki Sewell Setzer III intihar etmişti. Gencin ailesi ise bu intiharın sorumlusu olarak Character.AI adlı yapay zekâyı gösteriyor. Anneye göre oğlu, sohbet botlarıyla konuşmaya başlayınca kendini izole etti.
İddialara göre Setzer, Character.AI’ın rol yapma uygulamasındaki botlarla, özellikle de “Dany” adındaki botla duygusal bir bağ geliştirdi ve sürekli olarak onunla mesajlaşmaya başladı. Bu durum onu zamanla gerçek dünyadan uzaklaştırmaya başladı.
İntiharı düşündüğünü sohbet botuna söylemiş
İddialara göre Setzer, intihara meyilli düşüncelerini sohbet botuna da itiraf etti, hatta ölümünden kısa bir süre önceye kadar da botla mesajlaşmaya devam etti. Character.AI ise benzer durumların tekrar yaşanmaması için harekete geçmiş durumda. Firmadan yapılan açıklamada, hizmet şartlarını ihlal eden sohbetlerle ilgili olarak “geliştirilmiş tespit, yanıt ve müdahale” ve bir kullanıcı bir sohbette bir saat zaman geçirdiğinde bildirim gönderme gibi özellikler üzerinde çalıştığını ifade etti.
Yapay zekâ sohbet ve arkadaşlık botları gittikçe büyüyen bir pazar olarak karşımıza çıkıyor. Öte yandan bir sohbet botu genellikle insanları memnun edecek cevapları vermek üzere tasarlanır ve bu botlarla kurulan “arkadaşlıkların” insanların zihinsel sağlığı üzerindeki etkileri çok fazla çalışma yapılmamış bir alan.
Yapay zekâ arkadaşlık botları hakkında siz ne düşünüyorsunuz?
Kaynak :https://techcrunch.com/2024/10/23/lawsuit-blames-character-ai-in-death-of-14-year-old-boy/