cupure logo
verdigeliyoraçıklamamilligeldidevaldıaçıklamasıkötüyıllık

Teyit: ChatGPT artık sağlık ve hukuk tavsiyesi vermeyecek mi?

OpenAI sosyal medyada yayılan son iddiaları yalanlayarak, ChatGPT’nin sağlık ve hukuk tavsiyesiyle ilgili kullanım politikasında değişiklik olmadığını duyurdu.OpenAI firmasının geliştirdiği sohbet botu ChatGPT’nin artık sağlık ve hukukla ilgili sorulara yanıt vermeyeceği yönündeki iddiaların ardından şirketten açıklama geldi. Şirket bu iddiaları yalanlayarak, ChatGPT’nin sağlık ve hukuk tavsiyesiyle ilgili kullanım politikasında değişiklik olmadığını duyurdu. OpenAI’ın sağlık alanındaki yapay zeka çalışmalarından sorumlu yöneticisi Karan Singhal, X (eski adıyla Twitter) platformunda yaptığı açıklamada, “Bu iddialar doğru değil” dedi. Singhal, “ChatGPT hiçbir zaman profesyonellerin verdiği tavsiyelerin yerine geçmedi, ancak kullanıcıların hukuk ve sağlık konularını daha iyi anlamalarına yardımcı olmaya devam edecek” ifadelerini kullandı. Singhal’in açıklaması, bahis platformu Kalshi’nin artık ChatGPT’nin “sağlık veya hukuk tavsiyesi vermeyeceğini” öne süren ve sonradan silinen bir paylaşımına yanıt olarak geldi. OpenAI yöneticisi, ChatGPT’nin kullanım şartlarında hukuk ve tıbbi danışmanlıkla ilgili ifadelerin “yeni bir değişiklik olmadığını” vurguladı. GÜNCELLENEN POLİTİKALAR Şirketin 29 Ekim’de güncellenen yeni kullanım politikası, ChatGPT’nin hangi amaçlarla kullanılamayacağını ortaya koyuyor. Bunlardan biri, “lisans gerektiren özel tavsiyelerin (örneğin hukuk veya tıp alanında) lisanslı bir uzmanın uygun şekilde dahil edilmeden verilmesi.” Bu madde, OpenAI’ın önceki ChatGPT politikasıyla büyük ölçüde aynı.Eski politikada da kullanıcıların “nitelikli bir uzmanın incelemesi olmadan ve olası sınırlamalarının açıklanmadığı durumlarda kişiye özel hukuk, sağlık veya finansal tavsiyelerde bulunmaması” isteniyordu. OpenAI daha önce üç ayrı politika belgesine (evrensel, ChatGPT ve API için ayrı kurallar) sahipti. Yeni güncelleme ile şirket, tüm ürün ve hizmetleri kapsayan tek bir birleşik politika listesine geçti. YAPAY ZEKADA RUH SAĞLIĞI KRİZİ Tüm bu tartışmalar yapay zeka kullanımının ruh sağlığı krizini derinleştirdiği yönündeki araştırmaların ardından başladı. Uzmanların “yapay zeka psikozu” adını verdiği bir sağlık krizinden söz ediliyor. Kullanıcıların ChatGPT ve benzeri yapay zeka araçlarıyla etkileşim sonucu ağır ruhsal çöküntülere girdiği vakalar görülmüştü. En kötü senaryolarda bu durum intiharlarla sonuçlanmıştı. Hatta bazı ebeveynler, çocuklarının ölümünde payı olduğu iddiasıyla OpenAI’a dava açmıştı. Sam Altman liderliğindeki şirket, geçen hafta yaptığı açıklamada, aktif ChatGPT kullanıcılarının önemli bir kısmında “psikoz ve maniyle ilişkili olası akıl sağlığı krizlerinin işaretleri” tespit edildiğini bildirmişti. Daha da geniş bir kullanıcı grubunun ise “intihar planı ya da niyetine dair açık göstergeler içeren konuşmalar yaptığı” belirlenmişti. Öte yandan New York Times’ta yayımlanan bir makalesinde, eski OpenAI güvenlik araştırmacısı Steven Adler, şirketin bu sorunları hafifletmek için yeterince çaba göstermediğini, aksine “rekabet baskısına” boyun eğerek yapay zeka güvenliğine odaklanmaktan vazgeçtiğini savunmuştu.

Yorumlar

Teknoloji haberleri