PAYLAŞ | YAZDIR | E-POSTA
Tıp alanındaki deneyimim, gerçek yenilik ile uygulamayı temelden değiştiren ancak görünüşte değişmemiş olan ince yeniden sınıflandırma arasında ayrım yapmamı sağlıyor. Yapay zekâ son zamanlarda önemli ölçüde ilgi çekti; buna, yapay zekânın Amerika Birleşik Devletleri'nde "yasal olarak tıp uygulamasına yetkilendirildiği" yönündeki yaygın iddia da dahildir. Kelime anlamıyla yorumlandığında, bu iddia yanlıştır. Hiçbir tıp kurulu bir makineye lisans vermemiştir. Hiçbir algoritma yemin etmemiş, güvene dayalı sorumluluk kabul etmemiş veya hasta zararı için kişisel sorumluluk üstlenmemiştir. Hiçbir robot doktor klinik açmıyor, sigorta şirketlerine fatura kesmiyor veya tıbbi hata davası jürisi önünde durmuyor.
Ancak bu gözlemle yetinmek, daha geniş bir sorunu göz ardı etmek anlamına gelir. Sorumluluk kavramlarına ilişkin hukuki tanımlamalar, çoğu zaman kamuoyunun bilgisi dışında yeniden yapılmaktadır.
Önemli bir dönüşüm yaşanıyor ve bu durum, refleksif bir reddetme veya eleştirel olmayan bir teknolojik coşkudan daha fazlasını gerektiriyor. Mevcut gelişme, yapay zekanın bir hekim olarak lisanslandırılması değil, tıbbın temel sınırının, yani klinik yargı ile insan sorumluluğu arasındaki içsel bağın kademeli olarak aşınmasıdır. Klinik yargı, her hastanın benzersiz ihtiyaçlarına ve koşullarına göre uyarlanmış, bilinçli kararlar vermeyi içerir ve empati, sezgi ve tıp etiğine dair derin bir anlayış gerektirir.
İnsan sorumluluğu, sağlık hizmeti sağlayıcılarının bu kararlar ve sonuçları için üstlendikleri sorumluluğu ifade eder. Bu aşınma, çarpıcı yasal düzenlemeler veya kamuoyu tartışmalarının sonucu değil, pilot programlar, düzenleyici yeniden yorumlamalar ve sorumluluğu kasıtlı olarak gizleyen dil aracılığıyla sessizce gerçekleşir. Bu sınır ortadan kalktığında, tıp geri döndürülmesi zor şekillerde dönüşüme uğrar.
Asıl endişe, yapay zekanın reçeteleri yenileyebilmesi veya anormal laboratuvar sonuçlarını tespit edebilmesi değil. Tıp uzun zamandır araçlar kullanıyor ve sağlık hizmeti sağlayıcıları genellikle idari görevleri azaltan veya kalıpları tanımayı geliştiren yardımları memnuniyetle karşılıyor. Gerçek sorun, tıbbi yargının –doğru eylemlere, hastalara ve risklere karar vermenin– ahlaki sorumluluktan ayrı, bilgisayar tarafından üretilen bir sonuç olarak görülebilmesidir. Tarihsel olarak, yargıyı sorumluluktan ayırma çabaları, sorumluluk üstlenmeden çoğu zaman zarara yol açmıştır.
Son gelişmeler, mevcut kafa karışıklığının kökenlerini açıklığa kavuşturuyor. Birçok eyalette, sınırlı pilot programlar, yapay zekâ destekli sistemlerin, dar tanımlanmış protokoller altında stabil kronik rahatsızlıklar için reçete yenileme işlemlerine yardımcı olmasına izin veriyor. Federal düzeyde, önerilen mevzuat, yapay zekânın uygun şekilde düzenlenmesi koşuluyla, belirli yasal amaçlar için bir "uygulayıcı" olarak nitelendirilip nitelendirilemeyeceğini değerlendiriyor. Bu girişimler genellikle doktor kıtlığına, erişim gecikmelerine ve idari verimsizliklere pragmatik yanıtlar olarak sunuluyor. Hiçbiri yapay zekâyı açıkça bir doktor olarak tanımlamasa da, topluca, tıbbi işlemlerin açıkça tanımlanabilir bir insan karar vericisi olmadan gerçekleşebileceği daha endişe verici varsayımı normalleştiriyorlar.
Pratikte bu ayrım temeldir. Tıp, görevlerin mekanik olarak yerine getirilmesiyle değil, sonuçlar olumsuz olduğunda sorumluluğun atanmasıyla tanımlanır. Reçete yazmak basittir; ancak sonuçlarının sorumluluğunu üstlenmek –özellikle eşlik eden hastalıklar, sosyal bağlam, hasta değerleri veya eksik bilgiler göz önüne alındığında– çok daha karmaşıktır. Kariyerim boyunca bu sorumluluk sürekli olarak sorgulanabilen, meydan okunabilen, düzeltilebilen ve hesap verebilir hale getirilebilen bir insana aitti. Dr. Smith bir hata yaptığında, aile kiminle iletişime geçeceğini bilir ve bu da doğrudan insan sorumluluğuna ulaşmayı sağlar. Ne kadar gelişmiş olursa olsun hiçbir algoritma bu rolü yerine getiremez.
Asıl risk teknolojik değil, düzenleyici ve felsefidir. Bu geçiş, erdem etiğinden prosedürcülüğe doğru bir kaymayı temsil eder. Yasa koyucular ve kurumlar tıbbi karar vermeyi kişisel eylemlerden ziyade sistemlerin bir işlevi olarak yeniden tanımladığında, tıbbın ahlaki çerçevesi değişir. Sorumluluk dağılır, zararın kime ait olduğu daha zor belirlenir ve sorumluluk klinisyenlerden süreçlere, yargıdan protokole uyuma kayar. Hatalar kaçınılmaz olarak meydana geldiğinde, geçerli açıklama 'sistem belirlenmiş yönergeleri izledi' olur. Bu geçişi fark etmek, bireyselleştirilmiş etik karar vermeden mekanize prosedürel uyuma geçişi açıklığa kavuşturur.
Bu endişe teorik değil. Çağdaş sağlık hizmetleri zaten hesap verebilirliğin zayıflamasıyla ilgili zorluklarla karşı karşıya. Algoritma odaklı kararlardan zarar gören hastaların, yöneticiler, tedarikçiler ve şeffaf olmayan modeller arasında kaybolduğunu ve temel soruya net bir cevap alamadıklarını gözlemledim: Bu kararı kim verdi? Yapay zeka bu sorunu önemli ölçüde hızlandırıyor. Bir algoritma ahlaki açıklamalar sunamaz, vicdana dayalı olarak kısıtlama uygulayamaz, etik kaygılar nedeniyle eylemleri reddedemez veya bir hastaya veya ailesine hatayı kabul edemez.
Yapay zekânın özerkliğinin artırılmasını savunanlar sıklıkla verimliliği gerekçe olarak gösterirler. Klinikler aşırı yoğunluk yaşıyor, hekimler tükenmişlik sendromuyla boğuşuyor ve hastalar dakikalar sürmesi gereken bakım için aylarca bekliyor. Bu endişeler meşrudur ve her dürüst hekim bunları kabul eder. Ancak, verimlilik tek başına tıbbın etik temelini değiştirmeyi haklı çıkarmaz. Hız ve ölçek için optimize edilmiş sistemler genellikle incelik, takdir ve bireysel onuru feda eder. Tarihsel olarak tıp, bakımın temelde bir işlemden ziyade bir ilişki olduğunu vurgulayarak bu eğilime karşı koymuştur.
Yapay zekâ bu ilişkiyi tersine çevirme riski taşıyor. Bireyler yerine sistemler bakım sağladığında, hasta artık bir hekimle sözleşme içinde değil, bir iş akışının parçası haline geliyor. Hekim, makine gözetmeni rolünü üstleniyor veya daha da endişe verici olanı, kişisel olarak alınmayan kararların sorumluluğunu üstlenen yasal bir tampon görevi görüyor. Zamanla, klinik yargı yerini protokole uyuma bırakıyor ve ahlaki sorumluluk giderek azalıyor.
Yapay zekâ, daha incelikli ve tehlikeli bir sorunu da beraberinde getiriyor: belirsizliğin gizlenmesi. Tıp belirsizlik içinde yaşar. Kanıtlar olasılıksaldır. Kılavuzlar geçicidir. Hastalar nadiren temiz veri kümeleri olarak karşımıza çıkar. Klinisyenler sadece harekete geçmek için değil, tereddüt etmek için de eğitilirler; bilginin yetersiz olduğunu, müdahalenin faydadan çok zarar verebileceğini veya doğru yolun beklemek olduğunu anlamak için. Yapay zekânın taburcu etmeyi önerdiği, ancak hastanın eşinin korkmuş göründüğü bir senaryoyu düşünün; bu, algoritmik karar verme ile insan sezgisi arasındaki gerilimi vurgular. Bu tür gerçek dünya sürtüşmeleri, belirsizliğin önemini ortaya koymaktadır.
Yapay zekâ sistemleri belirsizlik yaşamaz; çıktı üretirler. Yanlış olduklarında ise çoğu zaman yersiz bir güvenle hareket ederler. Bu özellik bir programlama hatası değil, istatistiksel modellemenin doğasında var olan bir özelliktir. Açıkça şüphelerini dile getiren deneyimli klinisyenlerin aksine, büyük dil modelleri ve makine öğrenme sistemleri kendi sınırlamalarını tanıyamazlar. Veriler yetersiz olsa bile akla yatkın yanıtlar üretirler. Tıpta, kanıtlanmamış akla yatkınlık tehlikeli olabilir.
Bu sistemler klinik iş akışlarına daha erken entegre edildikçe, çıktıları sonraki kararları giderek daha fazla etkiler. Zamanla, klinisyenler önerilere geçerliliklerinden dolayı değil, normalleşmiş oldukları için güvenmeye başlayabilirler. Yargılama, aktif akıl yürütmeden pasif kabullenmeye doğru kademeli olarak kayar. Bu gibi durumlarda, 'insan müdahalesi' sembolik bir güvenceden öteye geçmez.
Savunucular sıklıkla yapay zekanın klinisyenlerin yerini almak yerine yalnızca onları 'destekleyeceğini' iddia ederler. Ancak bu güvence zayıftır. Yapay zeka verimlilik artışı gösterdikten sonra, ekonomik ve kurumsal baskılar daha fazla özerkliği tetikleme eğilimindedir. Bir sistem reçeteleri güvenli bir şekilde yenileyebiliyorsa, yakında reçete başlatmasına da izin verilebilir. Yaygın rahatsızlıkları doğru bir şekilde teşhis edebiliyorsa, doktor incelemesinin gerekliliği sorgulanır. Kontrollü kıyaslamalarda insanlardan daha iyi performans gösteriyorsa, insan değişkenliğine olan tolerans azalır.
Bu eğilimler göz önüne alındığında, belirli güvenlik önlemlerinin uygulanması şarttır. Örneğin, yapay zekâ destekli kararların %5'inde zorunlu tutarsızlık denetimleri, yapay zekâ önerileri ile insan klinik yargısı arasında uyum sağlanmasını güvence altına alan somut bir kontrol görevi görebilir ve düzenleyicilere ve hastane yönetim kurullarına yapay zekâ entegrasyonunu izlemek için uygulanabilir ölçütler sağlayabilir.
Bu sorular kötü niyetle sorulmamıştır; maliyet kontrolü ve ölçeklenebilirliğe odaklanan sistemler içinde doğal olarak ortaya çıkarlar. Ancak, insan yargısının norm olmaktan ziyade istisna haline geldiği bir geleceği işaret etmektedirler. Böyle bir senaryoda, kaynaklara sahip bireyler insani bakım almaya devam ederken, diğerleri otomatik süreçler aracılığıyla yönlendirilecektir. İki kademeli tıp, ideolojiden değil, optimizasyondan kaynaklanacaktır.
Bu anı özellikle tehlikeli kılan şey, net sorumluluk çizgilerinin olmamasıdır. Yapay zekâ destekli bir karar bir hastaya zarar verdiğinde, sorumluluk kimdedir? Sistemi nominal olarak denetleyen hekim mi? Sistemi devreye alan kurum mu? Modeli eğiten satıcı mı? Kullanımını onaylayan düzenleyici kurum mu? Açık cevaplar olmadan sorumluluk ortadan kalkar. Ve sorumluluk ortadan kalktığında, güven de kısa sürede kaybolur.
Tıp temelde güvene dayanır. Hastalar bedenlerini, korkularını ve çoğu zaman hayatlarını klinisyenlerin ellerine bırakırlar. Bu güven, ne kadar gelişmiş olursa olsun, bir algoritmaya aktarılamaz. Bu güven, bir insanın orada bulunmasına, yani dinleyebilen, uyum sağlayabilen ve eylemlerinden sorumlu olabilen birinin varlığına dayanır.
Yapay zekayı tamamen reddetmek gereksizdir. Akıllıca kullanıldığında, yapay zeka bürokratik iş yükünü azaltabilir, insan algısının gözünden kaçabilecek kalıpları belirleyebilir ve klinik karar verme süreçlerini destekleyebilir. Hekimlerin idari işler yerine hasta bakımına daha fazla zaman ayırmalarını sağlayabilir. Ancak bu geleceği gerçekleştirmek, tıp pratiğinin merkezinde insan sorumluluğunu korumaya yönelik net bir taahhüt gerektirir.
'İnsan müdahalesi', sembolik bir denetimden daha fazlasını ifade etmelidir. Her tıbbi karardan sorumlu belirli bir bireyin olmasını, gerekçesini anlamasını ve algoritmik önerileri geçersiz kılma yetkisine ve yükümlülüğüne sahip olmasını gerektirmelidir. Ayrıca şeffaflık, açıklanabilirlik ve bilgilendirilmiş hasta onayı içermeli ve yapay zekâ ile değiştirilmek yerine insan klinisyenlere yatırım yapma taahhüdünü de kapsamalıdır.
Asıl risk, yapay zekanın aşırı gücü değil, kurumların sorumluluktan kaçınma isteğidir. Verimlilik ve yenilik arayışında, tıp alanının teknik olarak gelişmiş, idari olarak basitleştirilmiş ancak ahlaki özden yoksun bir alan haline gelme tehlikesi vardır.
Geleceği düşünürken şu soruyu sormak şart: 2035'te hasta başında nasıl bir şifacı hayal ediyoruz? Bu soru, insan sorumluluğunun ve şefkatli bakımın tıp pratiğinin merkezinde kaldığı bir geleceği şekillendirmemizi teşvik eden kolektif ahlaki hayal gücünü gerektiriyor. Yapay zekâdaki gelişmelerin bu temel değerleri zayıflatmak yerine güçlendirmesini sağlamak için kolektif eylemlilik çok önemli olacaktır.
Yapay zekâya tıp alanında uygulama yapma lisansı verilmemiştir. Ancak tıp, sessizce ahlaki ağırlığı olmayan sistemler etrafında yeniden şekillendiriliyor. Bu süreç kontrolsüz bir şekilde devam ederse, bir gün hekimin bir makineyle değil, bir protokolle değiştirildiğini ve zarar meydana geldiğinde bunun hesabını verecek kimsenin kalmadığını keşfedebiliriz.
Bu bir ilerleme olmazdı. Bu bir tahttan feragat olurdu.
-
Joseph Varon, MD, Yoğun bakım uzmanı, profesör ve Bağımsız Tıp Birliği Başkanıdır. 980'den fazla hakemli yayına imza atmış ve Bağımsız Tıp Dergisi'nin Genel Yayın Yönetmeni olarak görev yapmaktadır.
Tüm mesajları göster