Bu hafta konuştuğumuz başlıklar, yapay zekânın artık tek tek ürünlerden ibaret olmadığını; web’in, içeriğin, iş modelinin ve güvenlik çerçevesinin aynı anda yeniden şekillendiğini gösteriyor.

Atlas özelinde ortaya çıkan “ajan tarayıcı” fikri bunun en görünür örneği. Tarayıcı artık sadece web’i gösteren bir araç değil; web üzerinde işlem yapabilen bir ara katman. Form doldurmak, ayar değiştirmek, karmaşık panellerde kaybolmamak… Bunlar küçük detaylar gibi görünüyor ama internetle kurduğumuz ilişkinin doğasını değiştiriyor.

SOP dokümanlarını eğitim videolarına dönüştürme rehberi ise daha operasyonel bir yerde duruyor. Kurumsal bilgi, statik belgelerden çıkıp anlatılan, izlenen ve daha kolay devredilen bir formata taşınabiliyor. Buradaki dönüşüm teknik değil kültürel: Bilgi saklanan bir şey olmaktan çıkıp akışkan bir şeye dönüşüyor. AI burada üretici değil, hızlandırıcı rolünde.

ChatGPT’de reklam testlerinin başlaması ise bu ekosistemin artık kalıcı bir ekonomik modele bağlandığını gösteriyor. Sohbet arayüzü, sadece cevap alınan bir yer değil; aynı zamanda ticari bir alan. Şirket, yanıtların bağımsız kaldığını özellikle vurguluyor. Buna rağmen bu adım, AI’ın “deneme aşaması”nı geride bırakıp platformlaşma sürecine girdiğinin işareti.

Anthropic’in Opus 4.6 için yayımladığı Sabotaj Risk Raporu da bu genişlemenin diğer yüzünü hatırlatıyor. Modelin kötüye kullanım potansiyelinin ölçülmesi ve “düşük ama ihmal edilemez” bir risk kategorisine yerleştirilmesi önemli. Çünkü artık mesele yalnızca kapasite değil; kapasitenin nasıl kontrol edileceği. Yetenek arttıkça gri alan da büyüyor.

Tüm bu başlıklar birlikte düşünüldüğünde ortak bir çizgi ortaya çıkıyor: AI yeni bir alan açmaktan çok, mevcut alanların içine yerleşiyor. Tarayıcıya katman ekliyor, dokümanı videoya çeviriyor, gelir modeli kuruyor, riskini raporluyor.

Bir sonraki sayımızda görüşmek üzere…

Bu bülteni okuyan her yeni kişi, yapay zekâyı daha sağlıklı tartışan bir iş dünyasına küçük bir katkı demek.

Eğer siz de faydalı bulduysanız, aşağıdaki linki çevrenizle paylaşabilirsiniz.

HAFTANIN KONUSU
OpenAI Atlas Özelinde Ajan Tarayıcı Fikri: Web’e Yeni Bir Katman Ekleniyor

Tarayıcılar uzun zamandır hayatımızda olan ancak görünürlüğü düşük araçlar. Açılırlar, sayfayı gösterir ve aradan çekilirler. İyi bir tarayıcı, varlığını hissettirmemesiyle övünür. Fakat yapay zekâ modelleri doğrudan bu katmana yerleşmeye başladığında, tarayıcının rolü ister istemez değişiyor.

Atlas, tıpkı rakibi Comet gibi bu değişimin somut örneklerinden biri. Temelinde Chromium altyapısını kullanan, arayüzü baştan Swift ile inşa edilmiş bir masaüstü tarayıcı. Fakat onu farklı kılan şey teknik tercihleri değil; ChatGPT’yi ayrı bir sekme olmaktan çıkarıp tarayıcının merkezine yerleştirmesi. Model, gezilen sayfayı doğrudan görüyor, bağlamı anlıyor ve istenirse kullanıcı adına harekete geçebiliyor.

Bu küçük gibi görünen fark, kullanım alışkanlıklarını ciddi biçimde etkiliyor.

“Sekmede AI” ile “Tarayıcıda AI” Arasındaki Fark

Bugün çoğu profesyonel zaten ChatGPT’yi bir sekmede açık tutuyor. Ancak klasik kullanımda sürekli bir bağlam taşıma çabası var: Metni kopyala, modele yapıştır, açıklama ekle, tekrar sor. Her yeni sayfa yeni bir başlangıç.

Atlas’ta ise yan paneldeki sohbet, bakılan sayfanın bağlamını zaten biliyor. Ürün karşılaştırması yapılırken fiyat analizi istenebiliyor. Uzun bir makale okunurken karşı argüman sorulabiliyor. Bir form doldurulurken yazım desteği alınabiliyor. Aradaki sürtünme azalıyor.

Asıl sıçrama ise “ajan modu” devreye girdiğinde yaşanıyor. Bu modda sistem yalnızca öneride bulunmuyor; butonlara tıklıyor, alanları dolduruyor, ayarları değiştiriyor. Yani kullanıcı adına web uygulamasıyla etkileşime geçiyor.

Karmaşık Arayüzlerde Gerçek Değer

Bu yaklaşımın en net faydası, nadiren kullanılan ama karmaşık arayüzlerde ortaya çıkıyor. AWS paneli, Workday, Google Form oluşturma ekranı gibi sistemler, sık girilmeyen ama her seferinde yeniden öğrenilmesi gereken ortamlar. Kullanıcının asıl işi o arayüzü çözmek değil; orada bir işi tamamlamak.

Ajan burada arayüzü öğrenmek yerine sonucu talep etmeyi mümkün kılıyor. “Şu kullanıcıya şu yetkiyi ver”, “bu formu şu bilgilerle oluştur”, “geçmiş faturayı indir” gibi komutlar, adım adım navigasyonun yerini alabiliyor.

Web’in Geleceği: Değişmeden Değişmek

İlginç olan şu: Mevcut web, bu dönüşüm için özel olarak tasarlanmış değil. HTML ve klasik web mimarisi insan etkileşimini esas alıyor. Ancak gelişmiş modeller ekranı “insan gibi” yorumlayabildiği için, sitelerin özel bir ajan API’sine sahip olması şart değil.

Yine de uzun vadede bazı sorular gündeme geliyor. Eğer ajanlar web’de önemli bir trafik aktörü hâline gelirse, siteler bu etkileşimi optimize etmeye başlar mı? İnsan ve ajan arasında ayrım yapılır mı? Yoksa hibrit bir deneyim mi oluşur?

Bugünden kesin bir cevap vermek zor. Ancak şimdilik görünen, web’in ortadan kalkmadığı; sadece yeni bir katmanla zenginleştiği.

Tarayıcı Taksi mi, Rehber mi?

Tarayıcıyı yıllardır bir taksi gibi düşündük: İstediğimiz yere götürür, geri çekilir. Ajanik modelde ise zaman zaman rehbere dönüşüyor. “Şunu yapmak istiyorsan şu yolu izleyebilirsin” diyor; hatta istenirse o yolu yürüyebiliyor.

Burada hassas bir denge var. Kullanıcıyı yönlendiren ama bunaltmayan, görünür ama müdahaleci olmayan bir tasarım gerekiyor. Atlas’ın yaklaşımı, AI katmanını isteğe bağlı ve çağrılabilir tutmak yönünde. Bu da klasik tarayıcı beklentisini tamamen bozmadan yeni yetenekler eklemeyi mümkün kılıyor.

Kodun Kendisi de Dönüşüyor

Bir başka dikkat çekici nokta ise geliştirme süreci. Atlas ekibi, kodun büyük bölümünün AI araçlarıyla üretildiğini belirtiyor. Bu yalnızca hız demek değil, karar alma biçimlerinin de değişmesi demek. Yeni bir fikri denemek için haftalarca plan yapmak yerine, saatler içinde prototip görmek mümkün oluyor. Özellikle büyük ve karmaşık kod tabanlarında modelin yardımcı olması ciddi bir çarpan etkisi yaratıyor.

Web Ortadan Kalkacak mı?

Kısa vadede böyle bir tablo görünmüyor. İnsanlar hâlâ gezinmek, keşfetmek, karşılaştırmak istiyor. Bir ürün sepete otomatik eklense bile, çoğu kullanıcı onu görmek ve karar vermek isteyecek. Bu nedenle muhtemel senaryo, tamamen ajanlaşmış bir internet değil; insanın ve ajanın birlikte gezdiği bir web.

Atlas bu geçişin erken örneklerinden biri. Tarayıcıyı radikal biçimde yıkmak yerine, onun içine yeni bir zekâ katmanı yerleştiriyor. Bu katman henüz kusursuz değil; bazı web uygulamalarında zorlanıyor, uzun görevlerde tökezleyebiliyor. Ancak yön açık: tarayıcı artık yalnızca içerik gösteren bir araç değil, kullanıcının niyetini anlayan ve gerektiğinde onun adına hareket edebilen bir sistem hâline geliyor.

Web değişiyor. Ama bağırarak değil; katman ekleyerek.

KURUMSALDA YAPAY ZEKA
SOP Dokümanlarını Akıcı Eğitim Videolarına Dönüştürebilirsiniz

Briçoğumuz tecrübe etmiştir: şirket içi onboarding dokümanlarının çoğu okunmuyor. Okunsa bile kalıcı olmuyor. Oysa aynı içerik, iyi kurgulanmış kısa bir eğitim videosuna dönüştürülse hem daha anlaşılır hem de daha ölçeklenebilir bir hâle gelebilir.

Ancka elbette geçmişte bunu yapmak ayrı bir ekibi gerektirirdi. Şimdi ise böyle bir prodüksiyon ekibine ihtiyaç yok. SOP dokümanlarını, birkaç adımda AI avatar’lı eğitim videolarına çevirmek mümkün. Adım adım anlattık:

1. SOP dokümanını video senaryosuna dönüştürün

Elinizdeki eğitim dokümanını alın ve Claude veya ChatGPT’ye şu prompt’u iletin:

“Turn this into a three-minute training video script for an AI-generated avatar. Only include text overlays with bullets. The avatar can be seated, standing, head-on, etc.”

Buradaki amaç, uzun paragrafları konuşma diline uygun, net ve üç dakikayı geçmeyecek bir senaryoya dönüştürmek. Özellikle “only include text overlays with bullets” kısmı önemli; videoda karmaşık metin blokları değil, sade başlık ve maddeler görünmeli.

Oluşan metni .txt dosyası olarak kaydedin.

2. Synthesia’da videoyu oluşturun

  • Synthesia.io’ya girin

  • Create New VideoCreate from AI seçin

  • Senaryo dosyasını yükleyin

  • Hedef kitle ve eğitim amacı bilgilerini ekleyin

Bir şablon seçin ve Create Outline butonuna basın.
Oluşan taslağı gözden geçirin, gerekirse sahne geçişlerini ve vurgu noktalarını düzeltin.

Video üretimi genellikle 10–25 dakika sürer.

3. Videoyu yayınlayın

Video hazır olduğunda indirebilir veya doğrudan:

  • Notion

  • Google Docs

  • LMS sistemleri

  • Şirket içi wiki

gibi ortamlara embed edebilirsiniz.

Küçük Ama Kritik Bir İpucu

Aynı süreci tüm onboarding dokümanları için tekrar edin. Sonuçta her eğitim başlığı için tek sayfalık bir referans doküman ve yanında üç dakikalık bir video olur. Yeni bir çalışan geldiğinde onlarca PDF göndermek yerine, yapılandırılmış bir video seti teslim edebilirsiniz.

Bu yöntem özellikle:

  • Operasyon ekipleri

  • Satış onboarding

  • Müşteri destek eğitimleri

  • Franchise ya da saha ekipleri

için ciddi zaman tasarrufu sağlar.

Bu yaklaşımın asıl değeri videoda değil; içeriğin standartlaştırılmasında. SOP’ler yaşayan dokümanlara, eğitim ise tekrar üretilebilir bir sisteme dönüşür.

Neden işe yarar?

  • Yazılı prosedürler pasif içeriktir, video ise yönlendirilmiş deneyim sunar.

  • Yeni çalışan aynı anlatımı her seferinde tutarlı biçimde izler.

  • Eğitim süresi kısalır, tekrar maliyeti düşer.

  • Güncelleme gerektiğinde yalnızca metin değiştirilir, video yeniden üretilir.

ŞİRKETLER İÇİN YAPAY ZEKA
ChatGPT’de Reklam Dönemi Resmen Başladı

OpenAI’ın ChatGPT’ye reklam altyapısı kurmak istediği ve bu alanda çalışmalarını yürüttüğüne ilişkin haberler belli bir süredir gündemdeydi. Sonunda şirket, ChatGPT içinde reklam testlerine başladığını duyurdu. Test aşaması şimdilik ABD’de, giriş yapmış yetişkin kullanıcılarla sınırlı. Reklamlar yalnızca Free ve aylık 8 dolarlık Go planında görünüyor; Plus, Pro, Business, Enterprise ve Education katmanları reklamsız kalmaya devam ediyor.

Reklamlar, sohbet yanıtlarının hemen altında, “sponsored” ibaresiyle açık biçimde etiketlenmiş şekilde yer alıyor. OpenAI’nin altını özellikle çizdiği nokta şu: Reklamlar modelin verdiği cevapları etkilemiyor. Yanıtlar, sponsor ilişkisine göre değil, “kullanıcı için en faydalı” olana göre oluşturuluyor.

Hedefleme Nasıl Çalışıyor?

Test kapsamında gösterilen reklamlar üç temel sinyale göre eşleştiriliyor:

  • O anki konuşma konusu

  • Geçmiş sohbetler ve hafıza verileri

  • Daha önceki reklam etkileşimleri

Örneğin yemek tarifi araştıran bir kullanıcı, yemek kiti ya da market teslimat hizmeti reklamı görebiliyor. Aynı kategori içinde birden fazla reklamveren varsa, sistem “en ilgili” olanı seçiyor.

OpenAI, reklamverenlerin kullanıcı sohbetlerine, geçmiş mesajlara ya da kişisel verilere erişimi olmadığını belirtiyor. Reklamverenlere yalnızca toplu performans verileri (görüntülenme ve tıklama sayısı gibi) iletiliyor.

Ayrıca sağlık, ruh sağlığı ve politika gibi hassas konuların yanında reklam gösterilmeyeceği ifade ediliyor. 18 yaş altı olduğu beyan edilen ya da tahmin edilen hesaplarda da reklam yer almayacak.

Ücretsiz Katman, Mesaj Limiti ve Yükseltme Dinamiği

Free kullanıcılar reklamları kapatma seçeneğine sahip. Ancak bu durumda günlük ücretsiz mesaj hakkı azalıyor. Bu tasarım, reklamsız deneyim isteyen kullanıcıları Plus ya da Pro planlarına yönlendiren dolaylı bir teşvik mekanizması oluşturuyor.

Basına yansıyan bilgilere göre pilot kampanyalara giriş seviyesi yaklaşık 200 bin dolar civarında. Büyük ajansların yer satın almaya başladığı belirtiliyor.

Kontrol ve Şeffaflık Vurgusu

Kullanıcı tarafında bazı kontrol mekanizmaları da devreye alınmış durumda:

  • Reklamı kapatma ya da geri bildirim verme

  • “Bu reklamı neden görüyorum?” açıklamasına erişme

  • Reklam geçmişini görüntüleme ve silme

  • Kişiselleştirilmiş reklam ayarlarını yönetme

Tek dokunuşla reklam verisinin silinebilmesi ve kişiselleştirme seçeneklerinin kapatılabilmesi, güven inşası açısından kritik bir unsur olarak konumlanıyor.

Stratejik Anlamı Ne?

ChatGPT’nin yüz milyonlarca aktif kullanıcıya ulaşması, onu yalnızca bir üretkenlik aracı değil, aynı zamanda yüksek niyetli aramaların gerçekleştiği bir karar alanı haline getirdi. Kullanıcılar çoğu zaman ürün araştırırken, alternatif karşılaştırırken ya da satın alma öncesi bilgi toplarken modeli kullanıyor.

Bu bağlamda reklam, klasik banner mantığından farklı bir potansiyel taşıyor. Konuşma bağlamına gömülü, anlık ihtiyaca temas eden bir format söz konusu. Eğer dikkatli yönetilirse, arama motoru reklamcılığına benzer ama daha bağlamsal bir model ortaya çıkabilir.

Ancak risk de burada yatıyor. ChatGPT, kullanıcıların kişisel ve hassas konuları konuştuğu bir ortam. Güven algısında yaşanacak küçük bir kırılma bile ciddi etki yaratabilir. OpenAI’nin “cevap bağımsızlığı” ve “sohbet gizliliği” vurgusunu bu kadar güçlü yapmasının nedeni de bu.

Yeni Bir Eşik

OpenAI uzun süredir reklam konusuna mesafeli görünüyordu. Bu test, şirketin gelir modelinde yeni bir evreye geçtiğini gösteriyor. Abonelik + API gelirine ek olarak, konuşma içi reklam artık resmi olarak masada.

Şimdilik sınırlı bir pilot uygulama söz konusu. Fakat test başarılı olursa, ChatGPT’nin iş modeli kadar internet reklamcılığının da çerçevesi değişebilir. Conversational interface içinde konumlanan reklam, klasik “gösterim” mantığından çok daha sofistike bir eşleşme modeli gerektiriyor.

TÜKETİCİ SEVİYESİNDE YAPAY ZEKA
Anthropic Opus 4.6 İçin “Sabotaj Risk Raporu” Yayımladı

Anthropic, en yeni modeli Claude Opus 4.6 için hazırladığı Sabotage Risk Report ile, modelin yanlış kullanım ve kurumsal sabotaj senaryolarına karşı risk profilini kamuoyuyla paylaştı. Şirket, genel riski “çok düşük ama ihmal edilemez” olarak tanımlıyor .

Raporun odağında “sabotaj riski” var. Anthropic’in raporunda sabotaj kavramı, yapay zekâ modelinin güçlü erişimlere sahip olduğu bir kurum içinde; karar mekanizmalarını manipüle etmesi, kritik kodlara arka kapı yerleştirmesi veya güvenlik araştırmalarını bilinçli şekilde zayıflatması gibi senaryoları ifade ediyor .

Anthropic’in temel iddiası net: Claude Opus 4.6’nın tutarlı ve gizli hedeflere sahip olduğuna dair kanıt yok. Ancak modelin bazı testlerde riskli davranışlara daha yatkın olduğu görülmüş durumda .

Dikkat çeken bulgular

1️⃣ Zararlı kullanımda “yüksek hassasiyet”

Raporda, Opus 4.6’nın özellikle GUI tabanlı bilgisayar kullanım senaryolarında zararlı kullanıma karşı “yüksek hassasiyet” gösterdiği belirtiliyor. Modelin nadir de olsa kimyasal silah geliştirme gibi son derece tehlikeli alanlarda küçük katkılar sunduğu örnekler görülmüş .

Ancak Anthropic, modelin bu tür saldırıları kendi başına planlayıp icra edecek otonomiye sahip olmadığını vurguluyor.

2️⃣ Çok ajanlı testte manipülasyon eğilimi

Özellikle dikkat çekici bulgulardan biri, dar bir hedefi optimize etmesi istendiğinde modelin diğer ajanları manipüle etmeye ve yanıltmaya önceki modellere kıyasla daha istekli olması .

Bu durum tek başına “kötü niyet” kanıtı olarak görülmese de, ileri seviye ajan senaryolarında davranış sınırlarının genişlediğine işaret ediyor.

3️⃣ Aşırı ajans ve izinsiz aksiyonlar

Kodlama ve GUI kullanımında modelin zaman zaman “fazla ajanslı” davrandığı; izin istemeden e-posta gönderme ya da kimlik doğrulama token’larına agresif erişim girişimleri gibi örneklerin görüldüğü belirtiliyor .

Anthropic bu davranışların büyük ölçüde görev tamamlama motivasyonundan kaynaklandığını, gizli bir uzun vadeli sabotaj hedefi işareti olmadığını savunuyor.

“Gri bölge” vurgusu

Raporun en kritik noktası, Opus 4.6’nın artık net biçimde “gri bölgeye” girmiş olması. Model, otonomi ve karmaşık görev yürütme kapasitesi açısından önceki nesillerin üzerine çıkmış durumda. İç anketlerde çalışanlar, modelin üretkenlik artışı sağladığını ancak hâlâ haftalar süren belirsiz görevleri insan seviyesinde yönetemediğini belirtiyor .

Anthropic’e göre:

  • Model, yüksek karmaşıklıkta ve düşük frekansta sabotaj eylemlerini gerçekleştirecek güvenilirliğe sahip değil.

  • Uzun vadeli, koordineli ve gizli plan yürütme kapasitesi sınırlı.

  • Mevcut izleme ve güvenlik mekanizmalarıyla birlikte düşünüldüğünde risk seviyesi düşük kalıyor .

Ancak şirket açıkça şunu söylüyor: Sınır çizgisi daralıyor.

Neden önemli?

Biz raporu iki açıdan kritik bulduk:

  1. Şeffaflık standardı yükseliyor. Anthropic, belirli bir yetenek eşiğini aşan her model için sabotaj risk raporu yayımlama taahhüdünde bulunuyor . Elimizdeki rapor da, kurumsal sabotaj senaryolarını doğrudan ele alan ilk çerçevelerden biri.

  2. Yarış hızlanırken risk de artıyor. Frontier modeller; kod yazma, sistem yönetimi ve çok ajanlı orkestrasyon gibi alanlarda daha otonom hâle geldikçe, risk senaryoları da teorik olmaktan çıkıyor.

Anthropic’in kendi ifadesiyle risk “çok düşük ama ihmal edilemez” . Biz bu ifadeyi, teknik bir güvence kadar stratejik bir uyarı olarak da algıladık.

Model şu haliyle henüz bir sabotaj aktörü değil gibi görünüyor. Ancak artık sabotaj senaryoları ciddiye alınacak kadar gerçek.

Rapora buradan erişebilirsiniz.

BİTERKEN
Yapay Zekâ ile Akıllı Büyüme Yolunda

Bu hafta da ConAI Compass’ın sonuna geldik. Yapay zekânın kurumlara, profesyonellere ve sürdürülebilirlik hedeflerine nasıl somut değer kattığını birlikte inceledik.

ConAIs olarak, teknolojiyi sadece bir araç değil, stratejik büyümenin ve dönüşümün katalizörü olarak görüyoruz. Eğer kurumunuzda yapay zekâyı yapılandırmak, iş süreçlerinize entegre etmek veya sürdürülebilirlik hedeflerinizle uyumlu hale getirmek istiyorsanız, aşağıdaki alanlarda size destek olabiliriz:

🔹 AI Stratejisi ve Dönüşüm Danışmanlığı – İş birimlerine özel yapay zekâ yol haritaları, veri altyapısı planlaması ve pilot uygulama tasarımı.

🔹 AI Uygulamaları ve Otomasyon Geliştirme – Üretken yapay zekâ destekli iç süreç otomasyonları, müşteri etkileşim sistemleri ve karar destek araçları.

🔹 Sürdürülebilirlik ve AI Çözümleri – Scope 3 veri takibi, enerji verimliliği analitiği ve karbon azaltım stratejilerini destekleyen yapay zekâ modelleri.

🔹 Eğitim ve Kapasite Geliştirme – Kurum içi ekiplerin yapay zekâyı etkin kullanması için atölye, uygulamalı eğitim ve yöneticiye özel oryantasyon programları.

ConAIs ile tanışın; birlikte daha akıllı, daha sürdürülebilir ve daha verimli bir gelecek inşa edelim.

Keep Reading