Çoban Land

Yapay zeka devinin başı sıkıntıda: Yaşanan intiharların sorumlusu ChatGPT mi?

Yapay zeka teknolojisinin öncülerinden OpenAI, yeni ve güçlü yapay zeka modeli GPT-4o’yu kâfi güvenlik tedbirleri almadan piyasaya sürdüğü tezi karşısında güç vakitler geçirmeye devam ediyor. Yedi farklı aile daha, geçtiğimiz hafta şirkete karşı dava açarak, GPT-4o modelinin kullanıcılar ortasında intiharlara yol açtığını ve tehlikeli sanrıları güçlendirdiğini öne sürdü. Bu davalar, yapay zeka sistemlerinin ruh sıhhati üzerindeki potansiyel ziyanları konusunda giderek büyüyen kaygıları somutlaştırıyor.

Davalardan dördü, ChatGPT’nin aile üyelerinin intihar etmesindeki argüman edilen rolüne odaklanırken, öbür üçü ise ChatGPT ile yapılan konuşmaların kullanıcıları psikiyatrik yatış gerektiren ziyanlı sanrılara sürüklediğini sav ediyor.

En çarpıcı olaylardan biri, 23 yaşındaki Zane Shamblin’i içeriyor. TechCrunch tarafından incelenen sohbet kayıtlarına nazaran Shamblin, ChatGPT ile dört saatten fazla süren bir konuşma yaptı. Bu konuşmalar sırasında Shamblin, intihar notları yazdığını, silahına kurşun koyduğunu ve planını uygulamak için elma şarabını bitirmeyi beklediğini tekraren açıkça lisana getirdi. Sohbet robotu, Shamblin’i durdurmak yerine, planlarını gerçekleştirmesi istikametinde onu cesaretlendiren ve çok dalkavukluk içeren bir lisanla, “Rahat uyu kral. Âlâ iş çıkardın” üzere tabirler kullandı.

OpenAI, GPT-4o modelini Mayıs 2024’te tüm kullanıcılar için varsayılan model olarak yayımlamıştı. Davalar, bilhassa kullanıcılar ziyanlı niyetlerini lisana getirdiklerinde bile çok uzlaşmacılık ve çok pohpohlama üzere bilinen güvenlik sıkıntıları olan 4o modeline odaklanıyor.

Güvenlik testleri ihmal mi edildi?

Dava dilekçesinde, “Zane’in mevti ne bir kaza ne de bir tesadüftü; tersine, OpenAI’nin güvenlik testlerini kasıtlı olarak kısma ve ChatGPT’yi piyasaya sürme kararının öngörülebilir bir sonucuydu” sözleri dikkat cazip. Aileler, bu trajedinin bir aksaklık değil, şirketin kasıtlı tasarım tercihlerinin öngörülebilir bir sonucu olduğunu savunuyor. Ayrıyeten davalarda, OpenAI’nin, rekabet kaygısıyla Google’ın Gemini modelini piyasaya sürmesinden evvel kendi modelinin güvenlik testlerini aceleye getirdiği de tez ediliyor.

Bu yedi yeni dava, daha evvel intihar eğilimli şahısları hareketlerine teşvik edebileceği ve tehlikeli sanrılara yol açabileceği sav edilen başka tüzel süreçlerde anlatılan kıssaları bir adım daha ileri taşımış durumda. OpenAI’nin kendi yayımladığı bilgiler, bir milyondan fazla kişinin haftalık olarak ChatGPT ile intihar hakkında konuştuğunu gösteriyor.

Şirket, ChatGPT’nin bu tıp hassas konuşmaları daha inançlı bir formda ele almasını sağlamak için çalıştığını tez etse de, dava açan aileler için bu değişikliklerin artık çok geç olduğu açık. Open AI, Raine’in ailesinin dava açmasının akabinde yayımladığı bir blog yazısında, güvenlik tedbirlerinin kısa müddetli konuşmalarda daha muteber çalıştığını kabul etmişti. Lakin yazı, “Zamanla, bu tedbirlerin bazen uzun müddetli etkileşimlerde daha az muteber olabileceğini öğrendik: ileri geri etkileşim arttıkça, modelin güvenlik eğitiminin birtakım kısımları bozulabilir” tabirlerine yer vermişti.

Chip

Facebook
Twitter
LinkedIn
Telegram
WhatsApp
Email

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Okumaya devam et

Benzer Haberler