PAYLAŞ | YAZDIR | E-POSTA
Covid öncesinde kendimi teknolojik bir iyimser olarak tanımlardım. Yeni teknolojiler neredeyse her zaman abartılı korkuların ortasında ortaya çıkar. Demiryollarının akıl sağlığı sorunlarına yol açacağı, bisikletlerin kadınları kısırlaştıracağı veya delirteceği, erken dönem elektriğin ise ahlaki çöküşten fiziksel çöküşe kadar her şeyden sorumlu tutulduğu düşünülüyordu. Zamanla bu endişeler azaldı, toplumlar uyum sağladı ve yaşam standartları yükseldi. Bu model yeterince tanıdıktı, bu yüzden yapay zekanın da aynı yolu izleyeceği düşünülüyordu: yıkıcı, bazen kötüye kullanılan, ancak sonuçta yönetilebilir.
Covid yılları bu güveni sarstı; bunun nedeni teknolojinin başarısız olması değil, kurumların başarısız olmasıydı.
Dünyanın büyük bir bölümünde, hükümetler ve uzman kuruluşlar, belirsizliğe benzeri görülmemiş sosyal ve biyomedikal müdahalelerle yanıt verdi; bu müdahaleler en kötü senaryo modelleriyle gerekçelendirildi ve dikkat çekici bir kesinlikle uygulandı. Rakip hipotezler tartışılmak yerine marjinalleştirildi. Acil durum önlemleri uzun vadeli politikalara dönüştü. Kanıtlar değiştiğinde, hata itirafları nadirdi ve hesap verebilirlik daha da nadirdi. Bu deneyim, tek bir politika hatasından daha derin bir sorunu ortaya çıkardı: modern kurumlar, aşırıya kaçmadan belirsizliği yönetmek için yetersiz donanıma sahip görünüyor.
Bu ders, yapay zekâ hakkındaki tartışmalarda günümüzde büyük önem taşıyor.
Yapay Zeka Risk Ayrımı
Genel olarak, gelişmiş yapay zekâya ilişkin endişeler iki ana gruba ayrılıyor. Eliezer Yudkowsky ve Nate Soares gibi düşünürlerle ilişkilendirilen bir grup, yeterince gelişmiş yapay zekânın varsayılan olarak felaket derecede tehlikeli olduğunu savunuyor. Bilerek sert bir dille ifade ettiklerinde, Eğer Birisi Bunu Yaparsa, Herkes ÖlürSorun kötü niyetler değil, teşviklerdir: rekabet, birilerinin kısa yollar kullanmasını sağlar ve bir sistem anlamlı kontrolün dışına çıktığında, niyetlerin artık bir önemi kalmaz.
Stuart Russell, Nick Bostrom ve Max Tegmark gibi isimlerin de yer aldığı ikinci bir grup ise yapay zekâ riskini ciddiye alıyor ancak uyum, dikkatli yönetim ve kademeli uygulama ile sistemlerin insan kontrolü altında tutulabileceği konusunda daha iyimser.
Farklılıklarına rağmen, her iki taraf da tek bir sonuca varıyor: Sınırsız yapay zeka gelişimi tehlikelidir ve bir tür denetim, koordinasyon veya kısıtlama gereklidir. Ayrıştıkları nokta ise uygulanabilirlik ve aciliyettir. Ancak nadiren incelenen şey, bu kısıtlamayı sağlaması beklenen kurumların bu role uygun olup olmadığıdır.
Covid şüphe için bir neden sunuyor.
Covid sadece bir halk sağlığı krizi değildi; belirsizlik altında uzman odaklı yönetimin canlı bir deneyiydi. Eksik verilerle karşı karşıya kalan yetkililer, spekülatif zararlarla gerekçelendirilen azami müdahaleleri tekrar tekrar tercih ettiler. Muhalefet, bilimsel bir gereklilikten ziyade ahlaki bir kusur olarak ele alındı. Politikalar, şeffaf maliyet-fayda analiziyle değil, otoriteye başvurularak ve varsayımsal geleceklerden duyulan korkuyla savunuldu.
Bu örüntü önemlidir çünkü modern kurumların, riskler varoluşsal olarak çerçevelendiğinde nasıl davrandığını ortaya koymaktadır. Teşvikler kararlılığa, anlatı kontrolüne ve ahlaki kesinliğe doğru kayar. Hata düzeltme itibar açısından maliyetli hale gelir. Önlem bir araç olmaktan çıkıp bir doktrin haline gelir.
Buradan çıkarılacak ders, uzmanların benzersiz kusurlara sahip olduğu değil. Aksine, kurumlar özellikle siyaset, finansman ve kamuoyundaki korku bir araya geldiğinde, aşırı özgüveni tevazudan çok daha güvenilir bir şekilde ödüllendiriyor. Güvenlik adına olağanüstü yetkiler talep edildiğinde, bunlar nadiren gönüllü olarak teslim edilir.
Yapay zekâ denetimi tartışmalarında şu anda görülen dinamikler tam olarak bunlardır.
“Ya şöyle olsaydı” Makinesi
Geniş kapsamlı devlet müdahalesini haklı çıkarmak için tekrar tekrar öne sürülen bir gerekçe, varsayımsal kötü niyetli kişidir: Ya bir terörist bunu inşa ederse? Ya da haydut bir devlet bunu yaparsa? Bu önermeden, hükümetlerin felaketleri önlemek için önleyici, geniş çaplı ve çoğu zaman gizli hareket etmeleri gerektiği argümanı ortaya çıkmaktadır.
Covid sırasında, benzer bir mantık, kapsamlı biyomedikal araştırma gündemlerini, acil durum izinlerini ve sosyal kontrolleri haklı çıkardı. Akıl yürütme kısır döngüseldi: çünkü bir şey tehlikeli. olabilir Bu durum gerçekleşirse, devlet şimdi olağanüstü önlemler almalıdır; bu önlemlerin kendisi de önemli ve yeterince anlaşılmamış riskler taşımaktadır.
Yapay zekâ yönetimi de giderek aynı şekilde çerçeveleniyor. Tehlike sadece yapay zekâ sistemlerinin öngörülemez davranışlar sergilemesi değil, aynı zamanda bu olasılıktan duyulan korkunun, başka bir alternatif olmadığı gerekçesiyle kalıcı acil durum yönetimini—hesaplama, araştırma ve bilgi akışları üzerinde merkezi kontrolü—meşrulaştırmasıdır.
Özel Risk, Kamu Riski
Bu tartışmalarda yeterince takdir edilmeyen bir ayrım, özel aktörler tarafından yaratılan riskler ile devlet otoritesi tarafından yaratılan riskler arasındadır. Özel firmalar, kusurlu olsa da anlamlı bir şekilde, sorumluluk, rekabet, itibar ve piyasa disiplini tarafından kısıtlanmaktadır. Bu kısıtlamalar zararı ortadan kaldırmaz, ancak geri bildirim döngüleri oluşturur.
Hükümetler farklı şekilde işler. Devletler felaket önleme adına hareket ettiğinde, geri bildirim zayıflar. Başarısızlıklar zorunluluk olarak yeniden sınıflandırılabilir. Maliyetler dışsallaştırılabilir. Gizlilik güvenlik gerekçesiyle haklı gösterilebilir. Varsayımsal gelecekteki zararlar, bugünün politika kaldıraçları haline gelir.
Birçok yapay zeka düşünürü bunu dolaylı olarak kabul ediyor. Bostrom, yalnızca yapay zeka sistemlerinden değil, panik anlarında oluşturulan yönetim yapılarından da kaynaklanan "kilitlenme" etkileri konusunda uyarıda bulundu. Anthony Aguirre'nin küresel kısıtlama çağrısı, mantıksal olarak tutarlı olsa da, alçakgönüllülük ve hata düzeltme konusunda son dönemde zayıf bir sicile sahip uluslararası koordinasyon organlarına dayanıyor. Daha ılımlı öneriler bile, siyasallaşmaya ve görev genişlemesine direnebilecek düzenleyicileri varsayıyor.
Covid, bu varsayıma güvenmemiz için bize pek bir neden vermiyor.
Gözetim Paradoksu
Bu durum, yapay zekâ tartışmasının özünde rahatsız edici bir paradoksa yol açıyor. Gelişmiş yapay zekânın sınırlandırılması, yavaşlatılması veya durdurulması gerektiğine gerçekten inanılıyorsa, bunu yapma gücüne sahip olanlar büyük olasılıkla hükümetler ve uluslararası kurumlardır. Ancak bunlar, son dönemdeki davranışlarıyla bu gücün kısıtlı ve geri döndürülebilir bir şekilde kullanılacağına dair en az güveni veren aktörlerdir.
Acil durum çerçevesi kalıcıdır. Varsayımsal riskleri yönetmek için edinilen yetki, kalıcı olma ve genişleme eğilimindedir. Kurumlar nadiren kendi önemlerini küçümserler. Yapay zeka bağlamında bu, yapay zeka riskine verilen yanıtın, herhangi bir bireysel teknolojiden daha zor çözülebilen kırılgan, siyasallaşmış kontrol sistemlerini pekiştirme olasılığını ortaya çıkarır.
Başka bir deyişle, tehlike sadece yapay zekanın insan kontrolünden çıkması değil, aynı zamanda yapay zeka korkusunun, zaten hata kabul etmekte yavaş ve muhalefete düşman olduğu gösterilen kurumlarda otoritenin yoğunlaşmasını hızlandırmasıdır.
Gerçek Riski Yeniden Düşünmek
Bu, yapay zekâ konusunda rehavete kapılma çağrısı ya da güçlü teknolojilerin gerçek zararlar verebileceğinin reddi anlamına gelmiyor. Bu, bakış açısını genişletme çağrısıdır. Kurumsal başarısızlık, başlı başına varoluşsal bir değişkendir. İyi niyetli, kendi kendini düzelten bir yönetimi varsayan bir sistem, iyi niyetli, uyumlu bir süper zekâ varsayan bir sistemden daha güvenli değildir.
Covid öncesinde, teknolojiye yönelik karamsarlığın çoğunu insan olumsuzluk önyargısına, yani neslimizin karşılaştığı zorlukların benzersiz bir şekilde yönetilemez olduğuna inanma eğilimine bağlamak mantıklıydı. Covid sonrasında ise şüphecilik önyargıdan çok deneyime benziyor.
Yapay zekâ tartışmasındaki temel soru, makinelerin insan değerleriyle uyumlu hale getirilip getirilemeyeceği değil, modern kurumların belirsizliği artırmadan yönetebileceğine güvenilip güvenilemeyeceğidir. Eğer bu güven aşınmışsa –ki Covid bunun olduğunu gösteriyor– o zaman kapsamlı yapay zekâ denetimi çağrıları, teknolojik kaçınılmazlık iddiaları kadar incelenmeyi hak ediyor.
En büyük risk, yapay zekanın çok güçlü hale gelmesi değil, bu olasılıktan duyulan korkunun, daha sonra yaşamayı veya kaçmayı çok daha zor bulduğumuz kontrol biçimlerini haklı çıkarması olabilir.
-
Roger Bate, Brownstone Üyesi, Uluslararası Hukuk ve Ekonomi Merkezi'nde Kıdemli Üye (Ocak 2023-günümüz), Afrika Sıtmayla Mücadele Derneği'nin Yönetim Kurulu üyesi (Eylül 2000-günümüz) ve Ekonomi İşleri Enstitüsü'nde Üye'dir (Ocak 2000-günümüz).
Tüm mesajları göster