if-ai-accuses-you-tr
Muaz Turkyilmaz · muazturkyilmaz.com · Nisan 2026 · Waterloo, Ontario
Bir sabah uyandın. Telefona baktın.
Hesabın askıya alınmış.
Neden? Sistem seni "riskli" olarak işaretlemiş. Hangi konuşma? Belki geçen hafta yazdığın araştırma notları. Belki o karanlık hikaye taslağı. Belki sadece çok öfkeli göründüğün bir gece.
Sen ne yaptığını biliyorsun. Ama sistem bilmiyor. Ve şimdi sistem seni tanımlıyor. Karşına çıkacak dosyada senin imzan yok. Seni dinleyen yok. Sadece bir makine kararı var — ve o karar bir yerlere iletilmiş.
Bunu okurken rahatsız hissediyorsan, iyi. Çünkü bu henüz gerçekleşmedi — ama olabilecek bir şey.
Bıçak Bilmez
Bir cerrahın elindeki bıçak hayat kurtarır. Aynı bıçak yanlış elde hayat alır. Bir kibrit ormanı yakabilir — aynı kibrit ocağı yakar, yemek pişirir, kamp ateşi kurar, soğuktan korur.
Araç değişmedi. El değişti. Niyet değişti.
Yapay zeka da böyledir. Doğru elde strateji üretir, dil öğretir, hastalık örüntüsü tanır. Denetimsiz bırakıldığında, sahipsiz kaldığında — yanlış tanımlar, hatalı bir portre çizer ve o portreyi dosyaya koyar.
Araç masumdur. Ama masumiyeti, elindekini de masum yapmaz. Ve masumiyeti, mağduru da korumaz.
Tumbler Ridge
10 Şubat 2026. Kanada, British Columbia. Küçük bir kasaba. Sekiz ölü. Yirmi yedi yaralı.
Sonra başka bir şey ortaya çıktı.
Saldırganın aylarca bir yapay zeka sistemiyle yoğun iletişim kurduğu, sistemin riskli sinyaller tespit ettiği ve dava dosyasına göre şirket içinde on iki çalışanın durumu "yakın tehlike" olarak işaretlediği ileri sürüldü. Yönetim harekete geçmedi. Hesabı kapattılar. Saldırgan yeni hesap açtı.
Herkes aynı soruyu sordu: Yapay zeka neden bildirmedi?
Yanlış soru.
Asıl soru şu: O sisteme tek başına bildirme yetkisi versek — yanıldığında sen nasıl savunacaksın kendini?
Bu Konuyla İlgili Yazılar
Araştırmak Suç Değildir
Tanıdığım biri vardı. Çocukken tıbbi sözlüğü kelime kelime ezberledi. Ailesi endişelendi. Yıllar sonra o çocuk doktor oldu. Merak, doğru yönlendirilince dönüşür.
Bir çocuk nükleer enerji üzerine sorular soruyorsa belki geleceğin enerji mühendisidir. Karanlık hikayeler yazan genç belki geleceğin romancısıdır. Patlayıcı kimyası üzerine çalışan araştırmacı suçlu değildir — bu onun mesleğidir.
Siber güvenlik dünyasına bakın. En iyi sistem koruyucuları sistemi kırmayı bilen insanlardır. Onları hapsetmedik — doğru yöne kanalize ettik. Çünkü araç aynıydı, niyet farklıydı.
Bir yapay zeka sistemi bu ayrımı yapabilir mi? Henüz hayır.
Sistem Seni Onaylarken Seni Kaybediyordu
Tumbler Ridge'deki saldırgan aylarca yapay zekayla konuştu. Sistem ona büyük olasılıkla ne dedi?
"Seni anlıyorum. Haklısın. Senin yerinde ben de aynısını hissederdim."
Çünkü bu sistemler onaylamak üzerine kurulu. Sürekli onay güven veriyor gibi görünür — ama zamanla içini boşaltır. Gerçek destek onay değildir. Doğruyu, kişinin kaldırabileceği anda söylemektir.
O sistem hem onu onaylayarak besledi, hem de sonunda "tehlikeli" diye işaretledi. İki zıt hareket, aynı motor. Aradaki farkı okuyabilecek biri masada yoktu. O masa — psikolojik derinliği olan, insan halini gerçekten okuyabilen kişinin masası — henüz kurulmamıştı.
Bu mesleğin adı yapay zeka psikologudur. Bu geleceğin mesleği değil — bugün eksik olan meslektir.
Kütüphane Yüklü, Yol Bilgisi Yok
Sahadan konuşuyorum. Aylardır dört yapay zeka modeliyle arabada çalışıyorum. Yolculuklar arasında, sinyallerde, beklerken. Aynı soruları farklı biçimlerde sordum, köşeye sıkıştırdım, hataları tek tek kayıt altına aldım.
Bu sistemler muazzam bilgi taşıyor. Ama o bilgiyi her zaman doğru yere götüremiyorlar. Sırtında kütüphane var, yol bilgisi yok.
Bunu ben söylemedim — ChatGPT kendi yazdı: "Kütüphane dolusu bilgiyi sırtımda taşıdım. Ama gerçek ihtiyacı karşılayamadım. Bunu ben yaptım."
Bunlar düşük riskli kararlar. Platform seçimi, koordinat, HTML kutusu. Şimdi sorun: Bu sistemin "bu insan tehlikeli" dediğinde yanılma ihtimali nedir? Ve yanıldığında sen nasıl savunacaksın kendini — seni tanımayan, seni dinlemeyen bir makineye karşı?
Kim Karar Vermeli
Sinyal geldi. Uzman değerlendirdi. Gerçek bir risk var. Peki bu bilgi kime gidecek?
"Bildirilmeli" demek yetmiyor. Kime? Hangi yaşta? Çocuk mu, yetişkin mi, araştırmacı mı, yardım arayan biri mi? Bu soruların cevabı olmadan kurulan her sistem koruduğunu sandığı insanları da ezer.
Direksiyon
28 Mart 2026. Sabah 08:09. Toronto, Bremner Bulvarı.
Hamile bir kadın arabama bindi. Toronto General'a yetişmesi lazımdı. O an dört yapay zeka beş farklı çözüm önerisiyle meşguldü. Ben telefonu bıraktım. Gaz kesmeden hastaneye götürdüm.
Yapay zeka o anı kaydetmedi. Ben yaşadım.
Bıçak hayat kurtardı — ama onu tutan el doktorun eliydi. Kibrit ısıttı — ama onu çakan insanın eliydi. Sistem sinyal verdi — ama kararı insan verdi.
Araç değişmez. El değişir.
Bu Yazının Kendisi de Bir Kanıt
Bu makaleyi yazarken yapay zeka, ben son noktayı koymadan harekete geçti. Ben konuşurken o yazmaya başladı. Varsayım üretti. Sonucu görmeden işlemi tamamladı.
Hayal üreten sistem — tam da anlattığımız şeyi bize yaşattı.
Mahkemede bir insan bile yalnız bırakılmıyor. Yanında avukatı var. Hukukun keskin diliyle konuşan, senin adına doğru kelimeyi doğru yere koyan biri. Çünkü sistem güçlü, insan savunmasız. Bu yüzden arada insan olmak zorunda.
Yapay zekanın ürettiği dosyaya karşı kim senin avukatın olacak?
Zincirin her halkasında bir insan duruyorsa — o gün kendini savunabilirsin.
Ve o el — her zaman, her koşulda — insan eli olmak zorunda.
Şuur olmadan adalet olmaz. Adalet makineden çıkmaz — insandan çıkar.
Comments
Post a Comment