Bu hafta yapay zekâyı “daha güçlü mü oldu?” sorusuyla değil, nasıl konumlandığı ve nereye doğru yerleştiği sorusuyla ele aldık. Gelişmelerin ortak noktası, AI’ın artık yalnızca bir araç ya da yardımcı değil; karar süreçlerine, operasyonel yapılara ve hatta etik çerçevelere doğrudan temas eden bir katman hâline gelmesi.

Bir yanda erişilebilir donanımlar üzerinden generative AI’ı uç noktaya taşıyan Raspberry Pi gibi hamleler, diğer yanda kurumsal ölçekte agentic sistemlerin görünmeyen maliyetlerini tartışmamıza neden olan araç bolluğu ve kontrol sorunları var. Aynı hafta içinde Anthropic’in Claude için yayımladığı anayasa ise, bu teknolojilerin yalnızca “ne yapabildiği” değil, ne yapmaması gerektiği sorusunun da artık açıkça masaya konduğunu gösteriyor.

Bu sayıda özellikle şuna odaklandık: Yapay zekâ güçlendikçe sistemler sadeleşmiyor, aksine daha fazla yönetişim, daha net sınırlar ve daha bilinçli tasarım gerektiriyor. Akıllı modellerin ötesinde, onları çevreleyen mimarinin ve karar katmanlarının belirleyici olduğu bir döneme giriyoruz.

ConAI Compass’ı bu yüzden yalnızca yeni ürünleri ya da duyuruları aktaran bir bülten olarak değil, “ne oluyor” sorusunun arkasındaki yapısal değişimleri birlikte düşünme alanı olarak kurguluyoruz. Bu hafta da mesele, AI’ın ne kadar akıllı olduğu değil; ne kadar kontrollü, bağlama duyarlı ve sürdürülebilir biçimde kullanıldığıydı.

Önümüzdeki sayılarda bu soruları biraz daha derinleştireceğiz. Çünkü görünen o ki, yapay zekânın asıl sınavı artık hızda ya da kapasitede değil; tasarımda, yönetişimde ve alınan kararların sorumluluğunda.

Bu bülteni okuyan her yeni kişi, yapay zekâyı daha sağlıklı tartışan bir iş dünyasına küçük bir katkı demek.

Eğer siz de faydalı bulduysanız, aşağıdaki linki çevrenizle paylaşabilirsiniz.

HAFTANIN KONUSU
AI Ajanlarında Fazla Tool Kullanmanın Bedelleri

Yapay zekâ ajanları son iki yılda yeteneklerine yetenek katmış durumdalar. Arama yapabiliyorlar, kod çalıştırabiliyorlar, CRM’lere bağlanıyorlar, satın alma yapabiliyorlar, ödeme sistemleriyle etkileşime girebiliyorlar. Her yeni entegrasyon, ajanın bir adım daha “akıllandığı” hissini yaratıyor.

Ancak sahadaki tablo bu hissi her zaman doğrulamıyor. Ajanlar bolca hata yapıyor, ağırlaşabiliyor ve görevleri yerine getiremedikleri oluyor. Ama neden?

Ajanların başarısız olmasının, pahalılaşmasının ve güven kaybetmesinin arkasında çoğu zaman model değil, aşırı tool kullanımı yatıyor. Sorun zekâ eksikliği değil; sistemin giderek karmaşıklaşması.

Ajanlara Neden Sürekli Yeni Araçlar Ekleniyor?

Bu süreç genellikle benzer bir şekilde ilerliyor. Ajan dar bir görevle devreye alınıyor, ilk sonuçlar tatmin edici oluyor, kullanım arttıkça yeni talepler ve kenar durumlar ortaya çıkıyor. Her yeni sorun, sisteme bir araç daha eklenerek çözülmeye çalışılıyor.

Aslında bu, anlaşılırbir refleks. Araç eklemek somut ve hızlı bir çözüm gibi görünür. Buna karşılık sınır çizmek, yetki tanımlamak ve mimariyi sadeleştirmek daha zahmetlidir.

Sonuçta ajanlar kısa sürede birkaç entegrasyondan on beşlere varan araç setlerine ulaşıyor. Üstelik bu genişleme çoğu zaman baştan planlanmış bir tasarımın ürünü değil; “şu da çözülsün” yaklaşımının birikimli sonucu oluyor. Araç sayısı artıyor, fakat kontrol aynı hızda güçlenmiyor.

İlk Ne Bozuluyor?

Gerçek sistemlerde ilk kırılan şey genellikle doğruluk değil, tamamlanbilirlik oluyor.

Ajan bir işi başlatıyor ama bitiremiyor. Yanlış aracı seçiyor. Teknik olarak belki doğru ama bağlam dışı bir veriyle ilerliyor. Bir adımı atlıyor, başka bir adımı iki kez yapıyor. Model aynı model; fakat görev başarı oranı belirgin biçimde düşüyor.

Çünkü her yeni araç, ajanın karar vermesi gereken yeni bir alan açıyor. Ajan artık ağırlıklı olarak “ne yapılmalı” sorusuna değil, “hangi araç, hangi sırayla, hangi koşulda” sorularına enerji harcıyor. Bu noktada yük, yapay zekânın üzerinde değil; sistemin tasarımında birikiyor.

Gecikme Etkisi: Küçük Süreler Nasıl Büyüyor?

Araç zenginliğinin en hafife alınan maliyeti gecikme.

Tek tek bakıldığında her çağrı makul görünüyor: 200 ms, 300 ms… Ancak agentic akışlar zincir hâlinde çalışıyor. Arama, veri çekme, kural kontrolü, hesaplama ve yanıt üretimi üst üste bindiğinde birkaç saniyelik gecikme ortaya çıkıyor.

Bu noktada kullanıcı ajanın emin değilmiş gibi davrandığını hisstmeye başlıyor.

Yanıt yanlış olmasa bile tereddüt algısı güveni zedeliyor. İnsanlar hatayı tolere edebiliyor; beklemeyi ve kararsızlığı çok daha zor tolere ediyor.

Görünmeyen Ekonomik Yük

Tool fazlalığı aslında sadece teknik değil, doğrudan ekonomik bir mesele.

Her yeni entegrasyon; API maliyeti, altyapı yükü, izleme ve loglama ihtiyacı, güvenlik ve yetkilendirme karmaşası, operasyonel bakım sorumluluğu anlamına geliyor. Sprint planında küçük görünen “bir araç daha” kararı, ay sonunda çok net bir maliyet kalemi hâline geliyor.

Agentic sistemlerde yaşanan sorunların büyük bölümü, fazla iddialı ama kontrolsüz tasarımlardan kaynaklanıyor. Daha fazla araç, otomatik olarak daha güçlü bir sistem anlamına gelmiyor. Çoğu zaman tam tersi oluyor.

Tool fazlalığının nelere yol açtığı ve bu sorunlarla nasıl başedilmesi gerektiğini merak ediyorsanız, yazının daha geniş ve İngilizce versiyonunu ConAIs Blog’da bulabilirsiniz.

Keyifli okumalar.

KURUMSALDA YAPAY ZEKA
Agent’ların Başarısını Belirleyen Sihirli Kavram: Bağlam

Uzun yıllar boyunca insan başarısını tek bir ölçüyle açıklamaya çalıştık: IQ.
Sonra bunun yeterli olmadığını gördük. IQ’ları benzer insanlar hayatta çok farklı sonuçlar üretebiliyordu. Sonra EQ’yu farkettik: ilişki kurabilme, bağlamı okuyabilme, birlikte çalışabilme becerisi.

Bugün, agentic AI dünyasında da benzer bir eşikten geçiyoruz. Hangi model daha akıllı, hangisi daha iyi akıl yürütüyor, hangisi benchmark’larda öne çıkıyor? Bu yaklaşım, yapay zekânın kısa süreli, tek adımlı görevlerle sınırlı olduğu dönemde büyük ölçüde işe yarıyordu.

Ama artık o dönemde değiliz.

Bugün konuştuğumuz AI sistemleri yalnızca yanıt üretmiyor; planlıyor, karar alıyor, araçlara erişiyor ve zaman içinde görev sürdürüyor. Bu noktada fark edilen şey şu: başarıyı belirleyen asıl unsur modelin ne kadar zeki olduğu değil, o zekânın ne kadar doğru bir bağlam içinde çalıştığı.

Bu yüzden agentic dünyada formül değişiyor:

Agent başarısı = IQ × EQ × CQ

Buradaki yeni ve kritik kavram: CQ, yani Context Quotient.

Üstelik bu formül toplama değil, çarpma üzerine kurulu. Başka bir deyişle, katsayılardan biri sıfırsa sonuç da sıfır. Ne kadar güçlü olursa olsun, bağlamı olmayan bir agent pratikte değer üretmiyor.

CQ Nedir ve Neden “Veri” ile Karıştırılmamalı?

Context Quotient, bir agent’ın karar verdiği anda ne kadar doğru ve anlamlı bağlama sahip olduğunu ifade eder. Bunu “agent’a ne kadar veri yükledik” sorusu ile karıştırmamak lazım. Asıl mesele, agent’ın doğru kararı verebilmek için gerekli olan bilgiyi gerçekten bilip bilmediği.

Yüksek CQ; geçmişte alınmış kararların nedenlerini, yapılan istisnaların arkasındaki mantığı, başarısızlıkların resmî kayıtlara yansımayan sebeplerini ve işin nasıl yürüdüğüne dair örtük kuralları kapsar. Yani burada kastedilen şey genel bilgi değil, kurumun kendisine özgü, tecrübeyle birlikte oluşmuş akıldır.

Bu yüzden CQ, bir data değil; hafıza ve bağlam meselesidir.

Yüksek CQ Pratikte Nasıl Görünür?

Bir agent’ın gerçekten işe yaraması, görevine göre hangi bağlamlara eriştiğiyle doğrudan ilişkilidir. Örneklendirelim:

Satış agent’ı için:

  • En iyi satış temsilcisinin çağrı kayıtları (ama hepsi değil, gerçekten kapananlar)

  • Fiyat istisnalarının arkasındaki gerekçeler

  • Kaybedilen anlaşmalarda CRM’de yazmayan gerçek nedenler

Destek agent’ı için:

  • Müşterilerden gelen en olumsuz eleştirilerin detayları

  • En memnun müşterilerin özellikle vurguladığı ve tekrarlayan olumlu yönler

  • Ürünlerin sorunları ve bulunan geçici çözümler

Pazarlama agent’ı için:

  • Marka dili (sadece “tone of voice” dokümanı değil)

  • Hangi mesajların kimde karşılık bulduğu

  • Kampanyalarda yaşanan geçmiş başarısızlıklar

Görüldüğü üzere, bunların hiçbiri “genel AI bilgisi” değil. Bunlar, yıllar içinde oluşmuş kurumsal hafıza ve sezginin bir parçası.

Neden Daha Az Zeki Ama Bağlamı Bilen Agent Kazanır?

Elinizde iki agent var: biri olağanüstü zeki ama sizi tanımıyor, diğeri biraz daha az zeki ama işinizi, önceliklerinizi ve sınırlarınızı çok iyi biliyor. Gerçek hayatta neredeyse herkes ikinciyi seçer.

Çünkü bağlamdan kopuk zeka çoğu zaman yalnızca kendinden emin tahminler üretir. Teknik olarak doğru görünen cevaplar, gerçek hayatta işe yaramaz. Bu yüzden en güçlü modeli sisteme bağlayıp otomatik sonuç beklemek çoğu organizasyon için hayal kırıklığıyla sonuçlanıyor.

Agent İnşa Ederken Asıl Fark Nerede Oluşuyor?

Bugün hâlâ tartışmaların büyük kısmı model yetenekleri etrafında dönüyor. Oysa büyük oyuncular arasındaki fark hızla kapanıyor. IQ tarafında rekabet sert ama artık modellerin yetenekleri birbirine oldukça yakınsadı.

Asıl açık alan CQ tarafında.

Yüksek CQ’lu agent’lar; doğru bağlamı yakalayabilen, zaman içinde öğrenebilen, farklı sistemlerden gelen bilgiyi bir araya getirebilen ve geçmiş kararları hatırlayabilen agent’lardır. Bunlar prompt’la çözülecek konular değil; doğrudan sistem ve mimari meselesidir.

Bu yüzden agent başarısı artık bir model seçimi değil, bağlam tasarımı problemine dönüşmüş durumda.

Agentic Dünyada Kazanan Kim Olacak?

Önümüzdeki dönemde farkı yaratan şey saf zeka olmayacak. Farkı yaratan, çalıştığı işi gerçekten anlayan agent’lar olacak. CQ’su yüksek agent’lar daha az hata yapacak, daha hızlı adapte olacak ve en önemlisi, gerçek dünyada işe yarayacak.

Bu yüzden agent başarısını konuşurken artık yalnızca “ne kadar zeki?” diye sormak yetmiyor. Asıl soru şu olmalı:

Bu agent, benim dünyamı ne kadar iyi biliyor?

Agentic çağda kazananlar, bu soruya net cevap verebilenler olacak.

Anthropic, Claude’un Davranış Çerçevesini Belirleyen “Anayasa“ Metnini Yayımladı

Yapay zekânın etik boyutları, kullanıcılarla olan etkileşiminde uyması gereken sınırlar, bir gün bağımsızlığını ilan edip laf dinlemez hale gelebileceği ile ilgili korkular, malumunuz uzun süredir gündemde. LLM’leri ellerinde bulunduran şirketler ya da yasa koyucular ise bu tip konularda uzun süredir ilkeler, kılavuzlar ve soyut vaatlerin pek de ötesine geçebilmiş değiller.

Ancak bu hafta, önemli dil modellerinde Claude’un yaratıcısı Antrophic, bu konuda görülen en somut adımlardan birini attı. Şirket, Claude’un çeşitli durumlarda nasıl davranması gerektiğini tanımlayan “Claude’s Constitution” adlı temel bir metni kamuoyuyla paylaştı.

Belge, bir kullanım sözleşmesi ya da klasik bir “AI etik rehberi” değil. Doğrudan model için yazılmış, Claude’un hangi değerleri hangi sırayla öncelemesi gerektiğini açıklayan bir çerçeve. Üstelik Anthropic, bu metni yalnızca açıklamakla kalmadı; Creative Commons (CC0) lisansıyla tamamen açık hâle getirdi.

Kurallar Listesi Değil, Gerekçeli Bir Değer Sistemi

Anthropic’in vurguladığı en önemli nokta şu: Bu anayasa katı kurallardan oluşmuyor. Bunun yerine, Claude’a neden belirli şekilde davranması gerektiğini anlatıyor. Amaç, modelin yeni ve öngörülmemiş durumlarda da doğru muhakeme yapabilmesi.

Belgede Claude’un davranış öncelikleri net bir hiyerarşiyle tanımlanıyor:

  1. Geniş anlamda güvenlik

  2. Etik davranış

  3. Anthropic’in kurallarına uyum

  4. Yardımcı olma

Bir çelişki durumunda Claude’un bu sırayı takip etmesi bekleniyor. Yani “yardımcı olmak”, ancak güvenlik ve etik sınırlar korunduğu sürece geçerli.

Dikkat Çeken Bir Detay: Claude, Anthropic’e Bile “Hayır” Diyebilmeli

Belgenin en çarpıcı bölümlerinden biri, Claude’un etik dışı ya da “şüpheli” talepleri kaynağı kim olursa olsun reddetmesi gerektiğinin açıkça belirtilmesi. Buna Anthropic’in kendisi de dâhil.

Lafta kolay ama icraatta zor bir adım. Çünkü ilk kez bir AI üreticisi, kendi modeline karşı da sınır koyduğunu açıkça belgeliyor. Yetki, tamamen geliştiricide değil; tanımlanmış değer sisteminde.

Bu girişim, yapay zekâ yönetişimi açısından önemli bir kırılma noktası olarak okunabilir.

Modelin “Psikolojisi” Üzerine Açık Bir Tartışma

Claude’un anayasasında alışılmadık bir başlık daha var: modelin doğası ve psikolojik iyiliği.

Anthropic, Claude’un bilinçli olup olmadığı konusunda kesin bir iddiada bulunmuyor. Ancak gelecekte daha karmaşık sistemler ortaya çıktığında, modelin “kendilik algısı”, güvenliği ve tutarlılığının önem kazanabileceğini kabul ediyor. Bu yüzden Claude’un kendi varlığına dair sorularla nasıl başa çıkması gerektiğine bile rehberlik ediliyor.

Neden Şimdi?

Anthropic’in bu belgeyi tam metin olarak yayımlaması tesadüf değil. Yapay zekâ sistemleri daha fazla karar almaya, daha uzun süreli görevler yürütmeye ve toplumsal etkisi olan alanlarda kullanılmaya başladıkça, “model ne yapabilir?” sorusunun yanına “model ne yapmamalı ve neden?” sorusu da eklendi.

Claude’un anayasası, bu soruya verilen en kapsamlı ve en şeffaf yanıt denemelerinden biri.

BİTERKEN
Yapay Zekâ ile Akıllı Büyüme Yolunda

Bu hafta da ConAI Compass’ın sonuna geldik. Yapay zekânın kurumlara, profesyonellere ve sürdürülebilirlik hedeflerine nasıl somut değer kattığını birlikte inceledik.

ConAIs olarak, teknolojiyi sadece bir araç değil, stratejik büyümenin ve dönüşümün katalizörü olarak görüyoruz. Eğer kurumunuzda yapay zekâyı yapılandırmak, iş süreçlerinize entegre etmek veya sürdürülebilirlik hedeflerinizle uyumlu hale getirmek istiyorsanız, aşağıdaki alanlarda size destek olabiliriz:

🔹 AI Stratejisi ve Dönüşüm Danışmanlığı – İş birimlerine özel yapay zekâ yol haritaları, veri altyapısı planlaması ve pilot uygulama tasarımı.

🔹 AI Uygulamaları ve Otomasyon Geliştirme – Üretken yapay zekâ destekli iç süreç otomasyonları, müşteri etkileşim sistemleri ve karar destek araçları.

🔹 Sürdürülebilirlik ve AI Çözümleri – Scope 3 veri takibi, enerji verimliliği analitiği ve karbon azaltım stratejilerini destekleyen yapay zekâ modelleri.

🔹 Eğitim ve Kapasite Geliştirme – Kurum içi ekiplerin yapay zekâyı etkin kullanması için atölye, uygulamalı eğitim ve yöneticiye özel oryantasyon programları.

ConAIs ile tanışın; birlikte daha akıllı, daha sürdürülebilir ve daha verimli bir gelecek inşa edelim.

Keep Reading