Yapay zekâ araçlarının daha verimli çalışmasını sağlamak için geliştirilen yeni yaklaşımlardan biri “emotion prompting” olarak adlandırılıyor: komutlara duygusal tonlar, hatta tehdit veya ödül vaatleri eklemek. Prompt mühendisi Michael Taylor, bu yöntemi test ederken ilginç sonuçlar elde etti. Örneğin, “Bu görevde başarısız olursam işimi kaybederim” gibi ifadeler, yapay zekânın ürettiği blog yazılarının ortalama yüzde 13 daha uzun olmasını sağladı.

Bu durum, yapay zekâların bilinçli olmamasına rağmen insan davranış kalıplarını taklit etmesinden kaynaklanıyor. Modeller, eğitim verilerinde duygusal içeriklerle ilişkilendirilen davranışları öğreniyor; dolayısıyla “aciliyet” veya “tehdit” içeren komutlara, insanların benzer durumlarda gösterdiği gibi daha dikkatli tepki veriyorlar.

Taylor, bu yöntemi “Golden Gate Claude” adlı bir chatbot üzerinde test etti; modelin belirli konulardan (örneğin köprülerden) uzaklaşmasını sağlamak için duygusal uyarılar kullandı. Deney, yapay zekâyla insan arasındaki etkileşimde duygusal bağlamın ne kadar etkili olabileceğini gösterdi.

Bu yaklaşımın etik sınırları hâlâ tartışmalı. Bazı erken dönem prompt mühendisleri, yapay zekâların belirli formatlarda yanıt vermesi için tehdit, yalan veya maddi teşvik (“200 dolar bahşiş vereceğim”) gibi manipülatif ifadeler kullandı. Modelin eğitim sürecinde insan davranışını taklit etmesi, bu tür duygusal yönlendirmelere karşı duyarlılığını artırıyor.

Burada olası bir yanlış anlamanın şimdiden önüne geçelim; “emotion prompting” yapay zekâyı kandırmak değil, insan dilinin duygusal boyutunu doğru yönetmek anlamına geliyor. Bu da, geleceğin “AI yöneticileri” için yeni bir beceri alanını tanımlıyor: duygusal zeka ile teknik komutun dengelendiği bir iletişim biçimi.

Keep Reading