Ozan Ovalı
Son haftalarda Silikon Vadisi’nin önde gelen yapay zeka şirketlerinde yaşanan üst düzey ayrılıklar, Türkiye kamuoyuna pek az yansımış olsa da küresel kamuoyunda sektörde neler oluyor sorusunu gündeme getiriyor. Oysa yeterince yakından bakarsak yeni olan hiçbir şey yok.
İstifalar, ismi yapay zeka ile eş anlamlı kullanılan ChatGPT’nin sahibi OpenAI’da, güvenlik odaklı olduğunu iddia eden Claude’ın geliştiricisi Anthropic’te ve Elon Musk’ın şirketi X’in (Twitter) bünyesindeki xAI’da yaşandı. İstifaların özellikle üst düzey yönetici ve araştırmacılar arasında gerçekleşmesi dikkat çekici. Bu şirketlerin ortak noktası ise dünyanın en değerli şirketleri arasında sayılmaları.
Özellikle xAI, önemli yapısal ve finansal değişikliklerin yaşandığı bir dönemden geçiyor. Elon Musk’ın SpaceX şirketi xAI’yi satın alma işlemini tamamladı ve halka arz için hazırlık yapıyor. xAI’nin değerinin 250 milyar dolar olarak belirlendiği tahmin ediliyor. Analistler, xAI kurucularının yaklaşık üç yıl sonra ayrılmasının, halihazırda değerli hisselere sahip oldukları için halka arz öncesinde doğal bir “pay kapma” hamlesi olabileceğini öne sürüyor. Bununla birlikte, bu dönem yeni yapay zeka girişimleri için sermaye toplamaya en uygun zaman olduğundan, kıdemli araştırmacıların şirketten ayrılmak istemeleri ticari açıdan gayet anlaşılabilir bir durum. xAI’da daha görünür olan bu “kendi yolunu açma” girişimleri, her şirkette ve bahsettiğimiz her istifada önemli motivasyonlardan biri, hatta birincil motivasyon olabilir. Bu, olayın sıradan kısmı. Bu yazı için odaklanacağımız kısım ise madalyonun diğer yüzü…
İnsancıl YZ Anthropic ve Maduro
Mrinank Sharma, yazılımcıların en popüler sohbet botlarından Claude ile bilinen Anthropic şirketinde çalışıyordu ve X’te (Twitter) yayınladığı kısa mesajla istifasını duyurdu. Sharma’nın mesajı bu niyetle yazılmamış olsa da kapitalizmin ne olduğunu, liberal asalaklardan değilseniz, bir kez daha açıkça göstermiş oldu. Mesajında Sharma şöyle diyor:
“Sürekli olarak durumumuzu değerlendiriyorum. Dünya tehlikede. Ve bu tehlike sadece yapay zeka veya biyolojik silahlardan değil, şu anda ortaya çıkan bir dizi birbiriyle bağlantılı krizden kaynaklanıyor. Sonuçlarıyla yüzleşmemek için, dünyayı etkileme kapasitemizle eşit ölçüde bilgeliğimizi de geliştirmemiz gereken bir eşiğe yaklaşıyor gibiyiz. Dahası, burada geçirdiğim süre boyunca, değerlerimizin eylemlerimizi gerçekten yönlendirmesinin ne kadar zor olduğunu defalarca gördüm. Bunu kendimde, en önemli şeyleri bir kenara bırakmamız için sürekli baskı gördüğümüz organizasyonumuzda ve daha geniş toplumda da gördüm.”
Öncelikler diyor Sharma, şirketimizde ve kapitalist dünyada değerlerimiz ve doğrularımızla hareket edemiyoruz diyor, karı arttırmak patronlar için her şeyden daha önemli diyemediği için. Böyle diyememesinin sebebi ise gerçeği bilmemesinden değil, kendisinin de bu düzeni kabullenmiş olmasından kaynaklanıyor.
Sharma’nın istifa kararında son noktayı, Venezuela Devlet Başkanı Nicolas Maduro’nun ABD tarafından kaçırılması operasyonunda Claude’un kullanılması koymuş gibi görünüyor. YZ camiasını takip edenler şaşırmış olabilir. Maduro’nun kaçırılması olayında hangi yapay zekanın kullanıldığını sorsak, Anthropic’in “etik” kuralları göz önüne alındığında herkesin Claude’u en sona koyması gerekirdi ama görünen o ki gerçekler hiç de öyle değil.
Ordu Teknolojiyi Nasıl Kullanır?
Maduro operasyonunda Claude’un kullanıldığını Wall Street Journal duyurdu, Anthropic de yaptığı açıklamayla bunu yalanlamadı. Zaten yalanlaması da pek mümkün değildi. ABD ordusunun Claude’u, GPT’yi ya da bir başka yapay zeka modelini nasıl kullandığını biraz inceleyelim. Palantir isimli bir “veri” şirketi olayın kritik noktasında yer alıyor. Bu şirket 2003 yılında CIA’in de yatırımıyla kuruldu ve kurulduğu günden beri ordu, istihbarat ve güvenlik odaklı çalışıyor. Öyle ki Palantir, “Impact Level 6” (IL6) olarak adlandırılan, Pentagon’un “çok gizli” verilerini işleme yetkisine sahip nadir şirketlerden birisidir.
Palantir’in GPT ya da Claude gibi bir yapay zeka modeli bulunmuyor. Palantir bunun yerine, yapay zeka teknolojisi öncesinde de yaptığı gibi, teknoloji devlerinin teknolojilerini alıp ordu, istihbarat vb. devlet kurumlarının kullanımına uygun hale getiriyor. Sivil olarak geliştirilmiş bir teknolojik aracın, özellikle de yazılımın, devlet tarafından kullanılabilmesi için casusluk, güvenlik gibi endişelerle kullanım öncesinde elbette gerekli önlemler alınmış, düzenlemeler yapılmış olmalı. Palantir’in görevinin bir boyutu bu. Görevin diğer boyutunu ise sivil alanda geliştirilmiş teknolojilerin askeri, istihbarat vb. alanlarda kullanılabilmesi için yasal engelleri, şirketin içindeki çeşitli engelleri ve kamuoyu baskısını aşabilmek oluşturuyor.
Claude’un ABD ordusu tarafından kullanımı örneğine baktığımızda durumu daha iyi anlamak mümkün olabilir. Anthropic’in kullanım şartları ve etik ilkeleri, askeri, istihbarat vb. işlerde kullanımı ciddi anlamda kısıtlar nitelikte. Bununla birlikte Anthropic’in örneğin orduya doğrudan Claude kullanımı satması, ordunun suçlarının sorumluluğunu da paylaşmak anlamına geliyor. Bu iki başlıca sebeple Anthropic, Claude kullanımını orduya değil Palantir isimli şirkete satıyor. Diğer taraftan bakarsak, ordu da Claude’u Palantir üzerinden almış oluyor. Anthropic “Biz Palantir’e sattık, Palantir ne yapıyor bilemeyiz” derken, ordu da Claude isimli yapay zekanın içine gömülü istenmeyen kullanım kısıtlarının Palantir tarafından mümkün olduğunca esnetilmiş halini kullanma avantajını elde ediyor. Sonuç olarak Claude, Maduro’nun kaçırılması gibi mevcut uluslararası hukuku açıkça çiğneyen bir emperyalist askeri istihbarat operasyonunda kullanılabilmiş oluyor.
Emperyalizmin Mevcut Dönemi
ABD’ye, yani emperyalizmin başat ülkesine bunun yeteceğini eskiden belki düşünebilirdik. Ancak Trump’ın ikinci başkanlığında çıplak gözle görülebilen, emperyalizmin daha cüretkar ve daha saldırgan olduğu mevcut dönemde bunu söylemek mümkün değil. Emperyalizmin bu yönelimini destekler nitelikte bir açıklamayı ABD Savaş Bakanı yapıyor. Bakan açıklamasında, savaşmaya engel olan veya fazla kısıtlayıcı güvenlik filtrelerine sahip yapay zeka modellerini ordunun ihtiyaçlarına uygun bulmadığını açıkça söylüyor.
Emperyalizm bunu sadece dile getirmekle de kalmıyor. Pentagon ile Anthropic arasında, Palantir’in de katkısıyla yapılması planlanan 200 milyon dolarlık hizmet sözleşmesi şu anda askıya alındı ve iptal edilebileceği söyleniyor. Bununla birlikte bakan, Anthropic’i “tedarik zinciri”nden de çıkarmakla tehdit etti. (Tedarik zincirinden çıkarma tehdidi, kapitalizmin özgürlük yalanlarını tek başına çürütür niteliktedir.) Tedarik zincirinden çıkarmak demek, artık sizinle herhangi bir şekilde çalışmayacağız demek oluyor. Ancak bu kararı alanın ordu yani devlet olduğunu ve muhatabının da o ülkenin teknoloji devi şirketlerinden birisi olduğunu göz önüne aldığımızda, bu karar o şirketin idamı anlamına geliyor. Hatırlayacağımız üzere Çinli teknoloji devi Huawei bu karara maruz kalmıştı ancak ABD’li bir şirket olmadığı için ve Çin devletinin de desteğiyle bu karar sonucunda yok olmamayı başarmıştı. Anthropic böyle bir kararla karşı karşıya kaldığında bir daha devlet ile iş yapamaz duruma gelecek ve deyiş yerindeyse “vatan haini” ilan edilmiş olacak.
Amazon ve Google başta olmak üzere dev şirketlerin de Anthropic ile çeşitli boyutlarda ortaklıkları olduğunu unutmamak gerekiyor. Amazon ve Google’ın devletin çeşitli kurumları ile ve tabii ordu ile de büyük anlaşmaları bulunuyor. Anthropic’in hain ilan edildiği bir durumda Google, Amazon gibi devler de Anthropic ile var olan ortaklık ve işbirliklerini düzenlemek, belki de sonlandırmak zorunda kalabilir. Tüm bu baskılara ek olarak Pentagon’un elinde, Trump’ın yılmaz destekçisi Elon Musk’ın daha “rahat” yapay zekası xAI’ı tercih etme seçeneği de bulunuyor. ABD’li teknoloji şirketlerinin kendi aralarındaki ve devletle aralarındaki karmaşık ilişkileri göz önüne aldığımızda, Anthropic’in bu tehdide nasıl karşı koyabileceği merak konusu…
OpenAI’da da Durumlar Benzer
OpenAI’da da benzer ayrılıklar yaşanıyor. Şirketin araştırmacılarından Zoe Hitzig istifa ederken, üst düzey güvenlik yöneticisi Ryan Beiermeister da görevden alındı. Hitzig, kullanıcıların ChatGPT ile kurduğu ilişkinin eşi benzeri görülmemiş bir “açıklık/samimiyet arşivi” yarattığını savunuyor ve ChatGPT’ye reklam eklenmesinin bu verilerin kötüye kullanımına zemin hazırlayabileceğini söylüyor. Hitzig ayrıca yapay zeka araçlarına bağımlılığın ruh sağlığı üzerindeki etkilerinin henüz yeterince anlaşılmadığını belirterek sosyal medya örneğini hatırlatıyor. Yapay zekanın doğrudan insan ve toplum üzerindeki etkilerini başka bir yazıda ele almayı umuyorum, bu yüzden Hitzig’in endişelerini başka bir yazıda ele almak üzere asıl konumuza dönüyorum.
Konumuz dahilinde kalan olay, OpenAI’ın üst düzey güvenlik yöneticisi Ryan Beiermeister’ın görevden alınması. OpenAI’daki etik alanındaki ilk değişim de bu değil. OpenAI, “Mission Alignment” adlı güvenlik ekibini dağıtmış, gelişmiş muhakeme modellerinin önemli geliştiricilerinden Jerry Tworek de ocak ayında şirketten ayrılmıştı. Ayrılıklara ek olarak, şirketin 100 milyar dolarlık yeni yatırım turu için görüşmeler yürüttüğü, ABD ordusuyla sözleşmeler imzaladığı ve ChatGPT’nin milyonlarca askeri personele sunulduğu da yeni haberler arasında bulunuyor.
OpenAI’ın da Anthropic’e benzer bir vizyon ile sahneye çıktığını hatırlayalım. “Open” ismi de bu vizyonun bir yansımasıydı. Ancak OpenAI son derece hızlı bir şekilde vizyon, etik, kural vb. hususları rafa kaldırdı. Örneğin OpenAI, 2024 yılında modellerinin askeri kullanımını kısıtlayan kurallarını esnetmişti. Gelinen nokta ortada… Ryan Beiermeister’ın görevden alınması da bu rota değişikliğini akıllara getirdi elbette. OpenAI, Beiermeister’ın ayrılığının ayrımcılık iddialarıyla ilgili olduğunu savunurken; kendisi bu suçlamaları reddetti ve kararın güvenlik kaygılarıyla bağlantılı olduğunu ima etti. Beiermeister’ın bilinen muhalefeti, ChatGPT’de “yetişkin modu” adı verilen ve cinsel içerikli konuşmalara izin verecek özelliğe karşı çıkmak şeklindeydi. Bu muhalefet de dahil olmak üzere, OpenAI’ın eski etik kurallarından tamamen arınmaya çalıştığını söylemek yanlış olmayacaktır.
Sermaye Hep Buydu
Kısaca ele aldığımız tüm bu yaşananlar bize, sermaye egemenliğinin ve kapitalizmin ne olduğunu bir kez daha hatırlatıyor. Anthropic kendisini “yapay zekanın risklerini azaltmaya adanmış, kamu yararına çalışan bir şirket” şeklinde tanımlıyor ancak Maduro’nun kaçırılmasında kullanıldı ve bunda sorumluluğu olmadığını savunuyor. Anthropic bu değerleri kuruluşunda dikkate aldıysa bile artık kesin olarak dikkate almıyor, Sharma’dan öğrendiğimize göre. Çünkü bu mümkün değil! Çünkü sermaye büyümezse yok olur. Sermayenin büyümesi için de her türlü değeri, doğruyu ve insanlığın çıkarını bir kenara bırakıp en fazla karı yapmaya odaklanması gerekir. Bu değerlerden ve doğrulardan vazgeçme hususu da sermayenin büyüklüğü ve rekabetin çetinliğiyle ters orantılıdır. Sermaye ne kadar büyür, rekabet ne kadar çetinleşirse değerler ve doğrular da o denli azalır. Bu değerlerden vazgeçme hızı da sanıyorum sermayenin büyüme hızıyla doğru orantılı. OpenAI’ın finansal büyüme hızı başta olmak üzere çeşitli parametrelerde çeşitli rekorlar kırdığını hatırlayanlar olacaktır. İşte bu büyüme hızının, OpenAI’ın kuruluşta var dediği değerlerden uzaklaşma hızı ile doğru orantılı olduğunu düşünüyorum. Anthropic’in herhangi bir değerini gerçek anlamda koruyup koruyamayacağını hep birlikte göreceğiz.

