İngiltere’de hastaların pratisyen hekimlere erişimde yaşadığı sıkıntılar, anında çözüm sunan ChatGPT, Gemini ve Grok gibi yapay zeka tabanlı sohbet robotlarını giderek daha popüler hale getiriyor. Söz konusu sistemler her ne kadar belirli tıbbi sınavlarda başarılı sonuçlar elde etse de, tıp dünyasının önde gelen isimleri bu platformların sağlık rehberi olarak kullanılmasına şüpheyle yaklaşıyor ve önemli riskler barındırdığının altını çiziyor.
Kullanıcı Deneyimleri: Doğru Yönlendirmeler ve Hatalı Teşhisler
Anksiyete sorunu yaşayan Abi isimli bir kullanıcı, sıradan internet aramalarına göre sohbet robotlarının çok daha kişiye özel tavsiyeler ürettiğini dile getiriyor. Bu durumu ‘Birlikte problem çözmek gibi hissettiriyor’ sözleriyle ifade eden Abi, idrar yolu enfeksiyonu geçirdiğinden şüphelendiğinde ChatGPT’nin kendisini eczaneye yönlendirmesiyle başarılı bir şekilde antibiyotik reçetesi alabildiğini aktarıyor. Diğer taraftan, Ocak ayında yaşadığı bir düşme vakasında tamamen farklı bir tablo ortaya çıktı. Yapay zeka sistemi, kullanıcının bir organının delindiğini belirterek acil servise başvurmasını önerdi. Ancak hastanede geçen üç saatlik bekleme süresinin ardından ağrısı hafifleyen Abi, evine geri dönerek yapay zekanın bu ciddi teşhiste yanıldığını anladı.
Doğruluk Oranlarında Çarpıcı Düşüş: Araştırma Sonuçları
Oxford Üniversitesi bünyesinde çalışmalarını sürdüren Reasoning with Machines Laboratuvarı tarafından gerçekleştirilen bir araştırma, dikkat çekici veriler sunuyor. Elde edilen bulgulara göre, hekimlerin tıbbi vakaları eksiksiz bir şekilde tanımladığı senaryolarda yapay zekanın teşhis doğruluk oranı yüzde 95 seviyelerine ulaşıyor. Ancak aynı sistemi tıp uzmanı olmayan 1.300 kişinin kendi kelimeleriyle test etmesi durumunda, bu başarı oranı aniden yüzde 35’e kadar geriliyor. Konuyu değerlendiren Profesör Adam Mahdi, hastaların şikayetlerini parça parça anlatmasının ve bazı kritik ayrıntıları atlamasının hatalı teşhislere zemin hazırladığının altını çiziyor. Mahdi, subaraknoid kanama gibi ölümcül olabilen vakalarda bile hastaların kullandığı ufak ifade değişikliklerinin son derece yanlış yönlendirmelere sebep olabildiğini belirtiyor.
Güvenilirlik İllüzyonuna Karşı Tıbbi Uyarılar
İngiltere’nin baş sağlık danışmanı görevini yürüten Profesör Chris Whitty, yapay zekanın sunduğu sağlık önerilerinin ‘yeterince iyi olmadığını’ ve bu araçların çoğunlukla ‘hem kendinden emin hem de yanlış’ bilgiler verebildiğini ifade ediyor. Glasgow kentinde pratisyen hekim olarak görev yapan Dr. Margaret McCartney ise farklı bir boyuta dikkat çekerek, bu tür botların kullanıcıda kişisel bir bağ hissi uyandırdığını ve bunun da tıbbi bilgilerin algılanma biçimini radikal şekilde değiştirdiğini vurguluyor.
Kanser, Aşı ve Beslenmede Hatalı Bilgi Riski
California merkezli The Lundquist Institute for Biomedical Innovation kurumunun yürüttüğü detaylı bir analiz, durumun ciddiyetini gözler önüne serdi. İncelemeler sonucunda; DeepSeek, Meta AI, ChatGPT, Gemini ve Grok gibi sistemlerin özellikle aşılar, kanser ve beslenme üzerine ürettiği yanıtların yarısından fazlasının sorunlu olduğu saptandı. Konuya ilişkin değerlendirmede bulunan Dr. Nicholas Tiller, bu algoritmaların son derece otoriter ve kendinden emin cevaplar vermek üzere programlandığını açıklıyor. Tiller’a göre bu durum sahte bir güven duygusu yaratırken, sıradan kullanıcıların söz konusu hataları fark edebilecek düzeyde tıbbi uzmanlığı bulunmuyor.
Geliştiriciler Ne Diyor?
Eleştirilerin odağındaki ChatGPT’nin geliştiricisi olan OpenAI firması, kendi sistemlerinin gerçek dünyadaki sağlık değerlendirmeleri hususunda güçlü bir performans sergilediğini savunuyor. Buna karşın şirket, ürünlerinin asla profesyonel tıbbi tavsiyelerin yerini alacak şekilde kullanılmaması gerektiği konusunda net bir uyarıda bulunuyor. Tüm bu tartışmaların gölgesinde sohbet robotlarını kullanmaya devam ettiğini belirten kullanıcı Abi ise, ‘her şeye biraz şüpheyle yaklaşılması’ ve bu sistemlerin ‘hata yapabileceklerini unutmamak’ gerektiği konusunda tecrübelerini paylaşıyor.
Sıkça Sorulan Sorular
[faq title=”Yapay zekanın tıbbi tavsiyelerinde doğruluk oranı nedir?”]
Oxford Üniversitesi’nin araştırmasına göre, doktorlar tüm verileri eksiksiz girdiğinde doğruluk yüzde 95 seviyesindeyken, doktor olmayan 1.300 kişinin kullanımında bu başarı oranı yüzde 35’e kadar düşmektedir.
[/faq]
[faq title=”Hangi yapay zeka sistemleri sağlık açısından analiz edildi?”]
The Lundquist Institute for Biomedical Innovation tarafından yapılan California merkezli araştırmada Gemini, DeepSeek, Meta AI, ChatGPT ve Grok sistemlerinin kanser, beslenme ve aşılar hakkındaki yanıtları detaylı olarak incelenmiştir.
[/faq]
[faq title=”OpenAI’nin sağlık tavsiyeleri konusundaki tutumu nedir?”]
Geliştirici OpenAI, sistemlerinin sağlık alanında güçlü bir performans gösterdiğini belirtmekle birlikte, bu araçların kesinlikle profesyonel tıbbi tavsiyelerin yerini alacak şekilde kullanılmaması gerektiğini vurgulamaktadır.
[/faq]
