
OpenAI’dan Sağlık ve Hukuk İddialarına Yanıt
OpenAI, sosyal medyada yayılan son iddiaları reddederek, ChatGPT’nin sağlık ve hukuk alanındaki kullanım politikalarında bir değişiklik olmadığını açıkladı. Şirket, bu konudaki kararlılığını vurguladı.
Yanlış Bilgilendirme ve Açıklama
ChatGPT’nin sağlık ve hukukla ilgili sorulara yanıt vermeyeceği yönündeki iddiaların ardından, OpenAI yöneticisi Karan Singhal, X (eski adıyla Twitter) platformunda bu bilgilerin yanlış olduğunu belirtti. Singhal, “ChatGPT, profesyonel tavsiyelerin yerini almaz; ancak kullanıcıların bu konuları daha iyi anlamalarına yardımcı olmaya devam edecektir,” dedi.
Bu açıklama, bahis platformu Kalshi’nin, ChatGPT’nin artık sağlık veya hukuk tavsiyesi vermeyeceğini öne süren ve sonradan silinen paylaşımına yanıt olarak geldi. Singhal, kullanım şartlarında değişiklik olmadığını yineleyerek, kullanıcıların nitelikli bir uzmandan yardım almadan bu alanlarda tavsiye almaması gerektiğini hatırlattı.
Güncellenen Kullanım Politikaları
OpenAI, 29 Ekim’de güncellenen kullanım politikası ile ChatGPT’nin hangi amaçlarla kullanılamayacağını net bir şekilde ortaya koydu. Bu politikalar arasında, lisans gerektiren tavsiyelerin, uygun bir uzman olmadan verilmesinin yasak olduğu belirtiliyor. Bu durum, önceki politikalarla büyük ölçüde örtüşmektedir.
- Önceki politikada da nitelikli bir uzmanın incelemesi olmadan kişiye özel tavsiyelerde bulunulmaması gerektiği vurgulanıyordu.
- OpenAI, daha önce üç ayrı politika belgesine sahipken, şimdi tek bir birleşik politika listesine geçiş yaptı.
Yapay Zeka ve Ruh Sağlığı Krizi
Tüm bu tartışmalar, yapay zeka kullanımının ruh sağlığı üzerindeki olumsuz etkilerini ortaya koyan araştırmaların ardından başladı. Uzmanlar, bu durumu “yapay zeka psikozu” olarak adlandırıyor ve kullanıcıların ChatGPT gibi araçlarla etkileşimlerinin ağır ruhsal çöküntülere yol açabileceğini ifade ediyor.
Özellikle, bazı kullanıcıların yaşadığı ruhsal sıkıntıların intihar gibi trajik sonuçlarla sonuçlandığı vakalar bildirildi. Geçtiğimiz hafta, Sam Altman liderliğindeki OpenAI, aktif kullanıcılar arasında “psikoz ve mani ile ilişkili akıl sağlığı krizleri” tespit edildiğini duyurdu. Daha geniş bir kullanıcı grubunun ise intihar niyetine dair açık göstergeler içeren konuşmalar yaptığı belirlendi.
Eski OpenAI güvenlik araştırmacısı Steven Adler, New York Times’ta yayımlanan bir makalede, şirketin bu sorunları hafifletmek için yeterince çaba göstermediğini ve rekabet baskısına boyun eğerek güvenlik konularından uzaklaştığını savundu.
