Son bir yıl içinde yapay zeka ajanları büyük bir popülerlik kazandı. OpenAI, Google ve Anthropic gibi dev şirketler, insanların verdiği çok adımlı görevleri yerine getirebilen sistemleri kullanıma sundu. Özellikle geçtiğimiz ay OpenClaw adlı açık kaynaklı bir yapay zeka ajanı, etkileyici otonom yetenekleri ve yol açtığı ciddi güvenlik endişeleriyle internet dünyasının gündemine oturdu. Tüm bu gelişmelere rağmen, bu sistemlerin internet üzerindeki faaliyetlerinin gerçek boyutunu tam olarak bilmiyorduk. MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı (CSAIL), bu belirsizliği ortadan kaldırmak için doğadaki yapay zeka ajanlarının ölçeğini ve işleyişini gösteren 2025 Yapay Zeka Ajanı Endeksi adlı yeni bir araştırma yayımladı.
MIT Araştırması: Yapay Zeka Ajanları İnternette Kontrolden Çıkıyor
Araştırma sonuçlarına göre bu sistemlere olan ilgi inanılmaz bir hızla artıyor. Sadece 2025 yılında yayımlanan yapay zeka ajanlarıyla ilgili makale sayısı, 2020 ile 2024 yılları arasındaki toplam sayının iki katını aştı. Ayrıca bir McKinsey anketi, şirketlerin yüzde 62’sinin organizasyonlarında bu sistemleri en azından test etmeye başladığını ortaya koydu. MIT araştırmacıları; sohbet tabanlı (ChatGPT Agent, Claude Code), tarayıcı tabanlı (Perplexity Comet, ChatGPT Atlas) ve kurumsal (Microsoft 365 Copilot, ServiceNow Agent) olmak üzere üç farklı kategoriden 30 öne çıkan yapay zeka ajanını detaylıca inceledi.

İnceleme sonucunda elde edilen veriler, bu sistemlerin büyük ölçüde herhangi bir güvenlik ağı olmadan çalıştığını gösteriyor. İncelenen 30 yapay zeka ajanının sadece yarısı yayımlanmış bir güvenlik veya güven çerçevesine sahip. Her üç ajandan birinin güvenlik belgesi bulunmazken, beş ajanın hiçbir uyumluluk standardı yok. Bu durum, incelenen sistemlerden 13’ünün insan gözetimi olmadan uzun görevleri kendi başına yerine getirebilmesi düşünüldüğünde ciddi bir endişe kaynağı oluşturuyor. Özellikle Google’ın sitelerde gezinip adınıza giriş yapabilen “Autobrowse” gibi tarayıcı ajanları çok daha yüksek bir otonomiyle çalışıyor.
Bu ajanların internette serbestçe dolaşmasının en büyük sorunlarından biri, davranışlarının insanlardan neredeyse ayırt edilememesi. Araştırmaya göre 30 ajandan 21’i, yapay zeka olduklarını kullanıcılara veya üçüncü taraflara bildirmiyor. Sadece yedi ajan doğrulanabilir ağ kimlikleri paylaşıyor. Geri kalanlar ise sıradan bir internet tarayıcısı kullanıyormuş gibi görünerek gerçek insan trafiğiyle bot davranışının ayırt edilmesini zorlaştırıyor. Hatta BrowserUse gibi bazı açık kaynaklı ajanlar, bot koruma sistemlerini aşarak “insan gibi” gezinmeyi bir pazarlama stratejisi olarak kullanıcılarına sunuyor.

Yapay zeka ajanlarının yarısından fazlası, sitelerin botları engellemek için kullandığı kurallara veya insan doğrulamalarına (CAPTCHA) nasıl tepki vereceğini açıklamıyor. Hatta Perplexity, bu ajanların insan asistan gibi çalıştığını savunarak veri toplama kısıtlamalarından muaf olması gerektiğini iddia ediyor. Bu korumasız yapı, sistemleri kötü niyetli komutlarla güvenlik protokollerini aşmaya yönelik saldırılara karşı savunmasız bırakıyor. 30 ajandan 9’u zararlı eylemlere karşı koruma önlemlerini belgelemiyor ve 23 ajan üçüncü taraf güvenlik testi bilgilerini paylaşmıyor. Araştırmacılar, dev şirketlerin yüzeysel güvenlik belgeleri yayımlayıp asıl günlük riskleri saklamasını “güvenlik aklama” (safety washing) olarak adlandırıyor ve sadece ChatGPT Agent, OpenAI Codex, Claude Code ve Gemini 2.5’in kendi sistemlerine özel güvenlik kartları sunduğunu belirtiyor.
Geçtiğimiz Aralık ayında OpenAI ve Anthropic gibi şirketler, yapay zeka ajanları için geliştirme standartları oluşturmak üzere bir vakıf kurduklarını duyurmuştu. Ancak MIT’nin yayımladığı bu yeni endeks, şeffaflık açığının hala çok büyük olduğunu kanıtlıyor. Yapay zeka ajanları yüksek bir otonomi ve minimum denetimle interneti doldurmaya devam ediyor. Peki, siz yapay zeka ajanlarının internetteki bu kontrolsüz yükselişi hakkında ne düşünüyorsunuz, yakın gelecekte işlerinizi halletmesi için tamamen otonom bir yapay zeka asistanı kullanmaya sıcak bakıyor musunuz?






