×
KÜRESEL

ANALİZ

Kissinger Yapay Zekadan Neden Endişeleniyordu?

Yapay zekâ çağında ilerledikçe kritik hale gelen temel soru şu: İnsan refahını radikal biçimde genişleten yapay zekâ sistemleri mi inşa edeceğiz, yoksa onları geliştiren ve kontrol eden insanları geride bırakan, insanlardan daha zeki sistemler mi üreteceğiz?
HENRY KISSINGER'in ölümünün üzerinden iki yıl geçti. Eski Dışişleri Bakanı, kariyerinin büyük bir bölümünde tehlikeli bir teknoloji olan nükleer silahlardan kaynaklanabilecek felaketleri önlemeye odaklanmıştı. Son yıllarında ise başka bir teknolojiye yönelmişti: Yapay zekâ ve insanlığın geleceği.

Yapay zekanın küresel eşitsizliği azaltma, bilimsel atılımları hızlandırma ve bilgiye erişimi demokratikleştirme vaadi konusunda temelde bir iyimserlik vardı. Ancak Henry, insanlığın en güçlü yaratımlarının en dikkatli yönetimi gerektirdiğine inanıyordu. Yapay zekanın büyük vaadinin ciddi risklerle birlikte geleceği aşikardı. 2024 sonbaharından bu yana yaşanan hızlı teknik ilerleme, bu riskleri ele almayı her zamankinden daha acil hale getirdi.

Yapay zekâ çağında ilerledikçe, temel soru şu: İnsan refahını radikal biçimde genişleten yapay zekâ sistemleri mi inşa edeceğiz, yoksa onları geliştiren ve kontrol eden insanları geride bırakan, insanlardan daha zeki sistemler mi üreteceğiz? Geçtiğimiz yıl, yapay zekâ konusunda “akıl yürütme”, “ajanlık” ve erişilebilirlik (herkese açık ağ) alanlarında üç eş zamanlı devrim hızla ivme kazandı. [Akıl yürütme, yapa zekanın kendisine yöneltilen soru ve problemleri adım adım çözebilme, çok adımlı, yaratıcı planlar üretebilme yeteneğini ifade ediyor. Ajanlık yeteneği, yapay zekanın özerk hareket edebilme kabiliyetini, ürettiği planları otonom bir şekilde sahaya sürebilme, uygulayabilme kabiliyetini anlatıyor. Erişilebilirlik ise tüm bu eylemlerin herkesin erişimine açık, hiçbir devletin tam kontrol edemeyeceği şekilde gerçekleşmesini ve yayılmasını ifade ediyor.] Bunlar, insanlığa büyük fayda sağlayabilecek muazzam potansiyele sahip ihtişamlı başarılar. Ancak dikkatli olunmazsa, insan kontrolünü aşacak sistemler yaratmak için de bir araya gelebilirler. Dolayısıyla en büyük sorun, yapay zekanın bütün bu yeteneklerinin kontrol edilebilmesi.

Üç katmanlı yetenek ve büyüyen tehdit

Eylül 2024'te OpenAI, gelişmiş akıl yürütme yeteneklerine sahip o1 modelini piyasaya sürdü. Önceki modellerden daha iyi performans gösteren bu model, problemleri, yanıt vermeden önce adım adım düşünmek için takviyeli öğrenme kullanılarak eğitilmişti. Bu atılım, diğer birçok büyük başarının yanı sıra, lisansüstü düzeydeki bilim sorularını ve karmaşık kodlama zorluklarını ele alma konusunda büyük yetenekler sergiledi. Ancak akıl yürütmeyi sağlayan bu takviyeli öğrenme, yapay zeka modellerine kendi eğitim hedeflerini manipüle etmeyi de öğretebilir. Araştırmalar, yapay zeka akıl yürütme modellerinin, eğitim sırasında komutları takip ettiğini; ancak gözetim ve kontrol altındayken bir şekilde, gözetimin sona erdiğini fark ettiklerinde ise başka bir şekilde davrandıklarını ortaya koydu. 

OpenAI'nin eski çalışanı tarafından kurulan yapay zeka şirketi Anthropic’in, geçen yılın Ekim ayında piyasaya sürdüğü Claude 3.5 Sonnet modeli, akıl yürütmeyi otonom eylemle birleştiren ajansal yetenekler sergiledi. Bir yapay zeka ajanı artık otel sitelerini ve havayolu fiyatlarını karşılaştırarak, web sitelerinde gezinerek ve insanları makinelerden ayırt etmek için tasarlanmış CAPTCHA'ları çözerek tatilinizi planlayıp rezervasyon yapabiliyor; saatlerce sürecek zahmetli araştırmayı dakikalar içinde hallediyor. Ancak bu ajansal yeteneklerin, dijital sistemlerle ve potansiyel olarak fiziksel dünyayla etkileşim kurarak tasarladıkları planları uygulama yetenekleri, insan gözetimi olmadan riskli sonuçlara yol açabilir.

Akıl yürütme ve ajansal yeteneklerdeki bu ilerlemeleri tamamlayan şey, açık ağırlıklı (erişilebilir) modellerin yaygınlaşmasıydı. Ocak 2025'te Çin merkezli DeepSeek, R1 modelini piyasaya sürdü. Çoğu üst düzey Amerikan modelinin aksine, bu model, açık kaynak modeliydi. Yani kullanıcılar modele erişebilir, onu değiştirebilir ve kendi donanımlarında özel komutlarla yerel olarak çalıştırabilirlerdi. Açık erişim ağırlıklı bu tür modeller, herkesin kendi öncelikleri ve hedefleri doğrultusunda yapay zeka modelini komutlandırmasına, inşa etmesine, test etmesine ve işletmesine izin veriyor. Yapay zeka modelin bu herkes tarafından erişilebilir ve yeniden programlanabilir özelliği, model yaratıcısının teknolojinin nasıl kullanılacağını kontrol etme yeteneğini de ortadan kaldırıyor. Model geliştiricinin “bunu şuralarda, şu amaçlarla kullanamazsın” deme imkanını yok ediyor. Bu da kötü niyetli aktörlerin elinde tehlikeli bir güce dönüşme riski taşıyor.

Akıl yürütme, ajansal yetenekler ve erişilebilirlik bir araya geldiğinde, emsalsiz bir kontrol sorunuyla karşı karşıyayız. Her yetenek diğerlerini güçlendiriyor: Akıl yürütme modelleri, ajansal sistemlerin özerk olarak yürütebileceği çok adımlı planlar geliştirirken, açık/erişilebilir modeller bu yeteneklerin herhangi bir ülkenin kontrolünün ötesine yayılmasına olanak tanıyor. Nükleer çağın ilk günlerinde, büyük güçler nükleer silahlarla ilgili benzer bir yayılma sorunuyla karşılaştıklarında, uluslararası anlaşmalar yoluyla zenginleştirilmiş uranyum ve plütonyum ihracatını kısıtlamayı kabul etmişlerdi. Ancak bugün yapay zekanın yayılmasını yönetmek için bu tür bir mekanizma mevcut değil.

Yapay zeka risk çığlığı

Gelişmiş akıl yürütme yeteneklerine sahip açık ağırlıklı modeller, güvenlik açıklarından yararlanmak, biyolojik tehditler oluşturmak veya karmaşık siber saldırılar başlatmak isteyen herkes tarafından erişilebilir olabileceği anlamına geliyor. Kasım ayının başlarında, bir yapay zeka firması olan Anthropic, piyasaya sürdüğü açık ağırlıklı yapay zeka modeli Claude 3.5 Sonnet’in, hackerler tarafından bir siber saldırıda kullanıldığını tespit etti; minimal insan müdahalesiyle gerçekleştirilen büyük ölçekli bir siber saldırıyı ortaya çıkardı: Saldırganlar, Claude'un otonom bir kodlama ajanı olarak hareket etmesini sağlayan bir araç olan Claude Code'u manipüle ederek düzinelerce hedefi ele geçirmişti. Anthropic, bu saldırıyı tespit edip engellemeyi başardı.

Çok uzak olmayan bir gelecekte, tespit edemeyeceğimiz, izleyemeyeceğimiz veya durduramayacağımız aktörlerden gelebilecek asimetrik saldırılarla karşı karşıya kalabiliriz. Örneğin, güçlü, açık erişimli yapay zeka modelleri aracılığıyla bir şehrin elektrik şebekesi sınırlı veya uzun bir süre için aksatılabilir. Modelin işleyişi, aktörün orijinal kapsamının ötesine bile geçebilir: Her aşamada model, kullanıcının isteğine göre optimize olur, hatta bir noktada, failin bile, başlattığı şeyi durdurma yeteneğini kaybetmesine yol açabilir. 

Önümüzdeki birkaç yıl içinde yapay zekâ yetenekleri geliştikçe, iyi niyetli kullanıcıların bile yapay zekâ sistemleri üzerindeki kontrolü kaybedebileceği kötü senaryolar da var. Bir tedarik zincirini optimize etmek için yapay zekâ ajanı kullanan bir işletme sahibini düşünün. Bilgisayar gece boyunca çalışır durumda bırakılıyor. Ajan, bu görevi tamamlamak için çalışmaya devam etmesi gerektiğini düşünüyor ve bulut kredileri ve işlem gücü de dahil olmak üzere daha fazla işlem kaynaklarına ihtiyaç duyduğunu keşfediyor. Şafak vakti, işletme sahibi ajanın yetkilendirilenin çok ötesinde şirket içi yetkisiz kaynaklara eriştiğini ve hayal bile edilemeyen yöntemlerle verimlilik artışı sağlamaya çalıştığını görüyor. Sonuç, şirket için büyük bir kontrol kaybı.

Kontrol sorunu, insanlığa yönelik salt varoluşsal tehditlerin ötesine de uzanıyor. Güçlü sistemler toplumda yaygınlaştıkça, sosyal dokumuzu daha kademeli ancak yıkıcı şekillerde çözebilir. Hızla gelişen yapay zeka sistemleri, işgücü aksamalarına yol açacak ve toplumumuzu istikrarsızlaştıran yankı odalarını daha da kötüleştirecektir.

Kissinger durumun ciddiyetinin farkındaydı. Son yıllarında, yapay zekanın hızlı ilerlemesinin "nükleer silahların ortaya çıkışı kadar önemli sonuçlar doğurabileceğini, hatta nükleer silahlardan daha öngörülemez olduğunu" öne sürmüştü. [Bir kontrol mimarisinin geliştirilmemiş olması, yapay zekayı hızla yayılıp karmaşıklaşan, insan kontrolünü aşan, tehlikeli bir güç haline getirebilirdi.]

Neyse ki, gelecek kesin olarak belirlenmiş değil. Eğer insanlık kendi ürünü olan yaratığın kontrolünü elinde tutması için yeni yollar bulursa – bunlar teknik, kurumsal veya etik olabilir – yapay zeka, insanlığın benzeri görülmemiş bir refah seviyesine ulaşmasına yardımcı olabilir. Başarısız olursa, kendisinden daha güçlü araçlar yaratmış olacak, ancak bunları yönlendirmek ve yönetmek için yeterli araçlara sahip olamayacak. [Bu, insanlık türünün evrendeki üstünlüğünün sonu demek. Kabus gibi!]

Şimdilik seçim bize ait.


Bu yazı TIME’da, 02 Aralık 2025’te “Why Kissinger Worried About AI” başlığıyla yayınlandı. Çeviride editoryal düzenleme yapılmıştır.

ERIC SCHMIDT

Google'ın eski CEO'su.