Hoş geldiniz,
Bu sayıda dört farklı ama birbiriyle temas eden başlığı ele aldık.
AI dedektörlerinin gerçekten sahte görselleri yakalayıp yakalayamadığını inceledik. Araçlar gelişiyor, ancak mutlak doğruluk hâlâ yok. Güven meselesi teknik olduğu kadar insani bir muhakeme meselesi olmaya devam ediyor.
SharePoint 2013 Workflow’un kapanmasının kurumlar için ne anlama geldiğini yazdık. Yıllardır arka planda çalışan süreçlerin görünmeyen risklerine dikkat çektik. Dijital altyapı modern değilse, operasyonel kırılganlık kaçınılmaz.
Anthropic’in Responsible Scaling Policy güncellemesini aktardık. Şirket, ileri seviye AI riskleriyle tek başına mücadele edilemeyeceğini açıkça söylüyor. Güvenlik artık şirket içi bir prosedür değil, sektör ölçeğinde bir konu.
Son olarak Perplexity’nin “Computer” adlı yeni ajan sistemini ele aldık. Tek model yaklaşımı yerine çoklu model orkestrasyonu öneren bu hamle, AI mimarisinin nereye evrildiğine dair önemli bir sinyal.
Umarız bu sayıyı ilgiyle okursunuz.
Bir sonraki sayıda görüşmek üzere.
Bu bülteni okuyan her yeni kişi, yapay zekâyı daha sağlıklı tartışan bir iş dünyasına küçük bir katkı demek.
Eğer siz de faydalı bulduysanız, aşağıdaki linki çevrenizle paylaşabilirsiniz.
HAFTANIN KONUSU
AI Dedektörleri Fake Görselleri Gerçekten Yakalayabiliyor mu?

Görsel: Stanford Engineering
Yapay zekâ üretimi görseller, videolar ve ses kayıtları artık sosyal medyada çıplak gözle ayırt edilemeyecek kadar gerçekçi. Bu ortamda “AI detector” olarak pazarlanan araçlar hızla yayılıyor. B uaraçlar bir görselin, videonun ya da ses kaydının yapay zekâ tarafından üretilip üretilmediğini analiz ettiklerini iddia ediyorlar.
Ancak kapsamlı testler, tablonu biraz daha karmaşık olduğunu gösteriyor.
1.000’den fazla içeriğin tarandığı bir araştırmada; metin, görsel, video ve ses analiz eden bir düzineden fazla araç karşılaştırıldı. Araştırma sonuçlarına göre bu araçların bazı güçlü yanları var ancak bu yönler bu araçlaratamamen güvenebileceğimiz seviyede değil.
Basit Sahtekârlıkların Çoğu Yakalanıyor
Basit prompt’larla üretilmiş, yüzleri fazla kusursuz gösteren, ışığı fazla dengeli dağıtan AI görselleri çoğu dedektör tarafından tespit edilebiliyor.
El anomalileri, aşırı simetri, gerçekçi ama yapay bir kompozisyon gibi unsurlar birçok sistem için “red flag“ sınıfında ve yakalanması kolay. Ancak dikkat çekici bir detay var:
Bazı sohbet botları, kendi ürettikleri görselleri dahi zaman zaman “gerçek” olarak etiketleyebiliyor.
Karmaşık Görsellerde Başarı Oranı Düşüyor
Yüz içermeyen, daha soyut ya da sahne bazlı görsellerde de performans belirgin şekilde düşüyor. Özellikle manzara, liman, şehir sahnesi gibi detaylı ama “kusur barındırmayan” görseller birçok dedektörü yanıltabiliyor.
Bunun nedeni, bazı sistemlerin ağırlıklı olarak yüz ve portre tespitine odaklanmış olması. Güvenlik ve sahte kimlik kullanımına karşı geliştirilen altyapılar, genel sahne analizinde daha zayıf kalabiliyor.
Video İçerikler Hâlâ Zayıf Halka
AI video üretimi hızlandı, fakat video analiz edebilen dedektör sayısı hala sınırlı. Analiz edebilenlerin sonuçları ise karışık. Sentetikliği çok belli olan içerikler yakalanabiliyor. Ancak daha sinematik ve iyi işlenmiş videolar birçok araç tarafından “gerçek” olarak işaretlenebiliyor. Bu durum, özellikle kriz anlarında yayılan sahte görüntüler için ciddi bir problem teşkil edebilir.
Ses Tarafı Daha Umut Verici
Testlerde en güçlü performans ses alanında görüldü.
ElevenLabs gibi araçlarla üretilen oldukça gerçekçi ses kayıtları bile çoğu dedektör tarafından yüksek doğrulukla tespit edilebildi. Ancak ses hızlandırıldığında, arka plan müziği eklendiğinde veya ciddi biçimde düzenlendiğinde hata oranı artıyor.
Yine de görüntü ve videoya kıyasla ses tespitinde daha olgun bir tablo var.
En Büyük Risk: Gerçeğe “Sahte” Demek
Belki de en kritik mesele bu. Dedektörler genel olarak gerçek içerikleri tanımada, sahte içerikleri yakalamaktan daha başarılı çıktı. Ancak yanlış pozitif (gerçek içeriğe “sahte” deme) riski hâlâ var.
Kriz dönemlerinde bu durum bilgi kaosuna yol açabiliyor. Gerçek bir görüntüye “AI üretimi” etiketi yapıştırıldığında, paylaşım yapan kurumlar ciddi bir prestij kaybına uğrayabilir.
Hibrit İçerikler: En Zor Alan
Gerçek bir fotoğrafın küçük bir bölümünün AI ile düzenlenmesi (örneğin arka plana duman eklenmesi) birçok aracı yanıltıyor.
Tamamen yapay içerikten ziyade, “kısmi manipülasyon” tespiti bugün için en zor alanlardan biri. Bazı yeni nesil modeller, görselin sadece değiştirilmiş bölümünü işaretleyebiliyor; ancak bu hâlâ istisna.
Bir Silahlanma Yarışı
Uzmanlara göre yüzde 100 doğruluk mümkün değil. AI üretim araçları geliştikçe, dedektörler de adapte olmak zorunda. Bu durum klasik bir “arms race” dinamiği yaratıyor.
AI sahtekârlığı arttıkça, yalnızca içerik değil; güven mekanizmaları da yeniden tasarlanmak zorunda kalacak.
ŞİRKETLER İÇİN YAPAY ZEKA
SharePoint 2013 Workflow Kapanıyor, Süreçleriniz Risk Altında Olabilir

Birçok şirket için SharePoint, adı sık geçmeyen ama kritik süreçleri taşıyan bir altyapıdır. Çalışan işe alım onayları, satın alma talepleri, sözleşme yönlendirmeleri, finansal onay akışları gibi operasyonel süreçler çoğu zaman bu sistemin üzerinde çalışır.
Çoğu yönetici SharePoint’i aktif olarak kullanmaz. Ancak şirket içindeki birçok “onay akışı” ve belge temelli süreç arka planda SharePoint workflow’larıyla ilerler.
Microsoft, bu altyapının eski nesil motorlarından biri olan SharePoint 2013 Workflow’u emekliye ayırıyor. Aynı dönemde eski Add-In modeli ve bazı kimlik doğrulama yapıları da devre dışı kalacak.
Şirketin bu kararı, yıllardır sorunsuz çalışan bazı iş akışlarının bir tarihten sonra çalışmamaya başlayabileceği anlamına geliyor. Diğer yandan sorun şu: Birçok organizasyon hangi süreçlerinin bu eski motoru kullandığını net olarak bilmiyor.
Risk Nerede?
Teknik riskten önce operasyonel risk var.
Eğer kurumunuz hâlâ SharePoint 2013 tabanlı workflow’lar kullanıyorsa, şu senaryolar mümkün:
Onay süreçlerinin sessizce durması
HR onboarding zincirlerinin kırılması
Satın alma yönlendirmelerinin aksaması
Compliance raporlarının eksik kalması
Finansal süreçlerde manuel müdahale zorunluluğu
Ancak bunlar karşınıza ilk başta bir “IT problemi” olarak değil de operasyonel aksamalar olarak çıkar. Çoğu zaman da “Süreç neden ilerlemiyor?” diye uğraşılıp durulur.
Bu Sadece Bir IT Güncellemesi Değil
Microsoft’un yakın zamanda yürürlüğe koyacağı bu değişiklik, şirketin SharePoint’i eski mimariden modern, bulut ve kimlik odaklı bir yapıya taşıma operasyonunun parçası.
Dolayısıyla konu yalnızca “eski akışı yenisine taşımak” değil. Asıl mesele şu:
Hangi süreçler gerçekten kritik?
Hangileri yıllardır otomatik çalışıyor ama artık gereksiz?
Hangileri yeniden tasarlanmalı?
Birçok kurum bu envanteri ilk kez çıkardığında, otomasyonlarının bir kısmının artık iş değerine katkı sağlamadığını fark ediyor. Bu yüzden bu geçiş bir maliyet kalemi olduğu kadar bir temizlik ve sadeleşme fırsatı da olabilir.
C-Level İçin Asıl Soru
Bu durum kaçınılmaz. O yüzden şunları sormak gerekiyor: Bu değişimi kontrollü bir modernizasyon projesi olarak mı yöneteceksiniz, yoksa bir gün kritik bir onay zinciri durduğunda kriz mi yöneteceksiniz?
Erken harekete geçen kurumlar:
Süreçlerini sadeleştirir
Güvenlik ve yetki modelini günceller
Gereksiz otomasyonları kapatır
Gelecekteki AI ve ileri otomasyon projeleri için temiz bir zemin oluşturur
Geç kalanlar ise genellikle acil müdahale moduna geçer.
İlk Adım Ne Olmalı?
Teknik detaydan önce görünürlük sağlanmalı.
Aktif SharePoint 2013 workflow envanteri çıkarıldı mı?
Hangi iş süreçleri bu yapıya bağlı?
Add-In ve eski kimlik doğrulama bağımlılıkları var mı?
İş kritik akışlar belirlendi mi?
Bu soruların net yanıtı yoksa, siz göremeseniz bile ortada bir risk vardır.
Konuya daha teknik ve adım adım yaklaşım içeren kapsamlı analizimizi ConAIs Blog’da İngilizce olarak paylaştık. Daha derin mimari ve modernizasyon çerçevesi için o yazıya göz atabilirsiniz.
Bazı sistemler sessiz çalışır, bu yüzden durduklarında fark edilmesi zaman alır. SharePoint 2013 Workflow tam olarak böyle bir sistem.
Anthropic: AI Temelli Risklerle Mücadelede Tek Başımıza Yetemeyiz

Anthropic, yapay zekâ kaynaklı “katastrofik riskleri” yönetmek için iki yılı aşkın süredir uyguladığı Responsible Scaling Policy (RSP) çerçevesini baştan aşağı yeniledi. 24 Şubat 2026 itibarıyla yürürlüğe giren yeni versiyon, şirketin hem kendi sınırlarını kabul ettiği hem de sektöre açık çağrıda bulunduğu bir metin niteliğinde.
Neden Güncellendi?
Anthropic, ilk RSP’yi 2023’te yayımladığında büyük dil modelleri ağırlıklı olarak sohbet arayüzleriydi. Bugün ise web tarayabiliyor, kod yazıp çalıştırabiliyor, bilgisayar kullanabiliyor ve çok adımlı otonom görevler üstlenebiliyor.
Şirket, belirlediği “eşik seviyelerin” (örneğin biyolojik silah üretimine destek kapasitesi gibi) pratikte beklenenden daha belirsiz çıktığını kabul ediyor. Bir modelin bu eşiği “aşıp aşmadığını” kesin biçimde söylemek çoğu zaman mümkün olmuyor. Değerlendirme bilimi henüz yeterince olgun değil.
Ayrıca, kamu otoritelerinin AI güvenliği konusunda yavaş ilerlediği de açıkça ifade ediliyor. Regülasyon ortamı güvenlikten çok rekabet ve ekonomik büyümeye odaklanmış durumda.
Anthropic’in temel tespiti şu: Eğer yalnızca bir şirket yavaşlar, diğerleri hızlanırsa, toplam risk azalmaz. Bu nedenle şirket, kendi yapabilecekleriyle sektör genelinde yapılması gerekenleri net biçimde ayırmış.
Üç Büyük Yenilik
1. Şirket Planı ve Sektör Tavsiyeleri Ayrıldı
Önceki versiyonlarda Anthropic, bazı güvenlik önlemlerini tek taraflı uygulamayı taahhüt ediyordu. Yeni versiyonda ise iki katman var:
Anthropic’in her koşulda uygulayacağı önlemler
Tüm sektörün birlikte uygulaması gerektiğini savunduğu daha iddialı önlemler
2. Frontier Safety Roadmap
Yeni politika, düzenli olarak yayımlanacak bir “Frontier Safety Roadmap” zorunluluğu getiriyor. Bu yol haritası; güvenlik, hizalama (alignment), koruma mekanizmaları ve politika alanlarında şirketin somut hedeflerini içerecek.
Bunlar bağlayıcı sözler değil; kamuya açık hedefler. Şirket ilerlemeyi kendisi notlayacak.
Örnek hedefler arasında şunlar yer alıyor:
Üst düzey siber aktörlere karşı olağanüstü güvenlik seviyelerini araştıran “moonshot” projeler
AI sistemlerinin davranışlarını daha derin hizalama testlerinden geçirmek
İç geliştirme süreçlerinde kapsamlı kayıt ve analiz mekanizmaları kurmak
Regülasyon için “risk arttıkça kademeli düzenleme” önerileri geliştirmek
3. Düzenli Risk Raporları ve Harici Denetim
RSP 3.0 ile birlikte, her 3–6 ayda bir kapsamlı Risk Report yayımlanacak. Bu raporlar yalnızca model yeteneklerini değil, tehdit senaryolarını, alınan önlemleri ve kalan risk seviyesini birlikte ele alacak.
Daha da önemlisi; belirli koşullarda bu raporlar bağımsız uzmanlar tarafından incelenecek ve kamuya açık değerlendirme yazılacak. Anthropic, özellikle “yüksek kapasiteli” modeller söz konusuysa ve rapor önemli ölçüde sansür içeriyorsa, harici incelemeyi zorunlu kılıyor.
Rekabet Ortamında Güvenlik
Metnin en dikkat çekici bölümlerinden biri, rakiplere dair taahhütler.
Anthropic, eğer kendisi açık ara öndeyse ve rakipleri gerideyse, riskin kontrol altında olduğuna dair güçlü bir argüman sunmadan ilerlememeyi taahhüt ediyor. Ancak rakiplerin benzer güvenlik seviyelerinde ilerlediğine dair güçlü kanıt varsa, “risk azaltma duruşunda geri kalmamayı” hedefliyor.
Biz bu haliyle RSP 3.0’ı, Anthropic’in boşluğu tek başına dolduramayacağını söyleyen bir güvenlik manifestosu gibi algıladık.
TÜKETİCİ SEVİYESİNDE YAPAY ZEKA
Perplexity, “Computer” Adlı Yeni Ajan Sistemini Duyurdu

Perplexity AI, “Perplexity Computer” adını verdiği yeni ürününü kamuoyuna tanıttı. Şirket, bu sistemi tek bir yapay zekâ modeline dayanmayan, görev bazlı çalışan genel amaçlı bir dijital iş gücü olarak konumlandırıyor.
Perplexity Computer, kullanıcıdan doğal dilde aldığı talimat doğrultusunda alt ajanlar oluşturuyor. Bu ajanlar web’de gezinme, araştırma yapma, kod yazma, uygulamalara bağlanma ve çok adımlı iş akışlarını yürütme gibi görevleri otonom biçimde yerine getirebiliyor. Her görev izole bir “sandbox” ortamında çalıştırılıyor.
Şirketin verdiği bilgiye göre sistem, tek model mimarisi yerine 19 farklı yapay zekâ modelini yönlendirebiliyor. Aynı iş içinde farklı sağlayıcılara ait modeller birlikte kullanılabiliyor. Kullanıcı isterse model seçimini manuel yapabiliyor; aksi hâlde sistem görev için en uygun modeli veya model kombinasyonunu kendisi belirliyor.
Perplexity CEO’su Aravind Srinivas, lansman sırasında tek modele dayalı sistemleri eleştirerek esneklik eksikliğinin önemli bir sınırlama olduğunu ifade etti. Computer’ın bu soruna alternatif bir yaklaşım sunduğunu belirtti.
Ürün; arka planda çalışan ve süreklilik gerektiren görevleri de destekliyor. Şirket, sistemin saatler hatta aylar sürebilecek iş akışlarını yürütebileceğini söylüyor. Ayrıca Gmail, Slack, Notion, takvim ve benzeri uygulamalarla entegrasyon imkânı sunuluyor. Platform, üretim seviyesinde uygulama, web sitesi ve rapor oluşturma yeteneğine de sahip.
Perplexity Computer şu an için Max abonelere açık. Pro ve Enterprise kullanıcılarına da kademeli olarak sunulması planlanıyor. Fiyatlandırma kullanım bazlı kredi sistemi üzerinden yapılıyor.
BİTERKEN
Yapay Zekâ ile Akıllı Büyüme Yolunda
Bu hafta da ConAI Compass’ın sonuna geldik. Yapay zekânın kurumlara, profesyonellere ve sürdürülebilirlik hedeflerine nasıl somut değer kattığını birlikte inceledik.
ConAIs olarak, teknolojiyi sadece bir araç değil, stratejik büyümenin ve dönüşümün katalizörü olarak görüyoruz. Eğer kurumunuzda yapay zekâyı yapılandırmak, iş süreçlerinize entegre etmek veya sürdürülebilirlik hedeflerinizle uyumlu hale getirmek istiyorsanız, aşağıdaki alanlarda size destek olabiliriz:
🔹 AI Stratejisi ve Dönüşüm Danışmanlığı – İş birimlerine özel yapay zekâ yol haritaları, veri altyapısı planlaması ve pilot uygulama tasarımı.
🔹 AI Uygulamaları ve Otomasyon Geliştirme – Üretken yapay zekâ destekli iç süreç otomasyonları, müşteri etkileşim sistemleri ve karar destek araçları.
🔹 Sürdürülebilirlik ve AI Çözümleri – Scope 3 veri takibi, enerji verimliliği analitiği ve karbon azaltım stratejilerini destekleyen yapay zekâ modelleri.
🔹 Eğitim ve Kapasite Geliştirme – Kurum içi ekiplerin yapay zekâyı etkin kullanması için atölye, uygulamalı eğitim ve yöneticiye özel oryantasyon programları.
ConAIs ile tanışın; birlikte daha akıllı, daha sürdürülebilir ve daha verimli bir gelecek inşa edelim.
