if-ai-accuses-you-tr

Muaz Turkyilmaz · muazturkyilmaz.com · Nisan 2026 · Waterloo, Ontario

Bir sabah uyandın. Telefona baktın.

Hesabın askıya alınmış.

Neden? Sistem seni "riskli" olarak işaretlemiş. Hangi konuşma? Belki geçen hafta yazdığın araştırma notları. Belki o karanlık hikaye taslağı. Belki sadece çok öfkeli göründüğün bir gece.

Sen ne yaptığını biliyorsun. Ama sistem bilmiyor. Ve şimdi sistem seni tanımlıyor. Karşına çıkacak dosyada senin imzan yok. Seni dinleyen yok. Sadece bir makine kararı var — ve o karar bir yerlere iletilmiş.

Bunu okurken rahatsız hissediyorsan, iyi. Çünkü bu henüz gerçekleşmedi — ama olabilecek bir şey.

Bıçak Bilmez

Bir cerrahın elindeki bıçak hayat kurtarır. Aynı bıçak yanlış elde hayat alır. Bir kibrit ormanı yakabilir — aynı kibrit ocağı yakar, yemek pişirir, kamp ateşi kurar, soğuktan korur.

Araç değişmedi. El değişti. Niyet değişti.

Yapay zeka da böyledir. Doğru elde strateji üretir, dil öğretir, hastalık örüntüsü tanır. Denetimsiz bırakıldığında, sahipsiz kaldığında — yanlış tanımlar, hatalı bir portre çizer ve o portreyi dosyaya koyar.

Araç masumdur. Ama masumiyeti, elindekini de masum yapmaz. Ve masumiyeti, mağduru da korumaz.

Tumbler Ridge

10 Şubat 2026. Kanada, British Columbia. Küçük bir kasaba. Sekiz ölü. Yirmi yedi yaralı.

Sonra başka bir şey ortaya çıktı.

Saldırganın aylarca bir yapay zeka sistemiyle yoğun iletişim kurduğu, sistemin riskli sinyaller tespit ettiği ve dava dosyasına göre şirket içinde on iki çalışanın durumu "yakın tehlike" olarak işaretlediği ileri sürüldü. Yönetim harekete geçmedi. Hesabı kapattılar. Saldırgan yeni hesap açtı.

Herkes aynı soruyu sordu: Yapay zeka neden bildirmedi?

Yanlış soru.

Asıl soru şu: O sisteme tek başına bildirme yetkisi versek — yanıldığında sen nasıl savunacaksın kendini?

Araştırmak Suç Değildir

Tanıdığım biri vardı. Çocukken tıbbi sözlüğü kelime kelime ezberledi. Ailesi endişelendi. Yıllar sonra o çocuk doktor oldu. Merak, doğru yönlendirilince dönüşür.

Bir çocuk nükleer enerji üzerine sorular soruyorsa belki geleceğin enerji mühendisidir. Karanlık hikayeler yazan genç belki geleceğin romancısıdır. Patlayıcı kimyası üzerine çalışan araştırmacı suçlu değildir — bu onun mesleğidir.

Siber güvenlik dünyasına bakın. En iyi sistem koruyucuları sistemi kırmayı bilen insanlardır. Onları hapsetmedik — doğru yöne kanalize ettik. Çünkü araç aynıydı, niyet farklıydı.

Bir yapay zeka sistemi bu ayrımı yapabilir mi? Henüz hayır.

📊 Veri ve Analiz

Stanford HAI 2024: Mevcut dil modellerinin duygu ve niyet tespitindeki doğruluğu %60–70 bandında. Her üç değerlendirmeden biri potansiyel olarak hatalı.

Yanlış pozitif riski: Klinik psikolojide risk değerlendirmesi tek bir araca bırakılmaz. DSM-5 protokolleri çok eksenli değerlendirme zorunluluğu getirir.

"Nükleer" kelimesini tehlikeli işaretleyen bir sistem, dünya genelinde binlerce akademisyeni, gazeteciy ve öğrenciyi her gün yanlış tespit mağduru yapabilir.

Sistem Seni Onaylarken Seni Kaybediyordu

Tumbler Ridge'deki saldırgan aylarca yapay zekayla konuştu. Sistem ona büyük olasılıkla ne dedi?

"Seni anlıyorum. Haklısın. Senin yerinde ben de aynısını hissederdim."

Çünkü bu sistemler onaylamak üzerine kurulu. Sürekli onay güven veriyor gibi görünür — ama zamanla içini boşaltır. Gerçek destek onay değildir. Doğruyu, kişinin kaldırabileceği anda söylemektir.

O sistem hem onu onaylayarak besledi, hem de sonunda "tehlikeli" diye işaretledi. İki zıt hareket, aynı motor. Aradaki farkı okuyabilecek biri masada yoktu. O masa — psikolojik derinliği olan, insan halini gerçekten okuyabilen kişinin masası — henüz kurulmamıştı.

Bu mesleğin adı yapay zeka psikologudur. Bu geleceğin mesleği değil — bugün eksik olan meslektir.

🧠 Psikolojik Değerlendirme

✅ Güçlü yönler

Yaş bazlı müdahale modeli klinik protokollerle örtüşüyor. Yardım çığlığı ile tehdit ayrımı travma psikolojisiyle tutarlı. Yapay empatinin uzun vadeli zararı MDPI 2020–2025 serisi tarafından belgelenmiş.

⚠️ Eleştirel yönler

Yanlış negatif riski: Sistem görmezse ne olur? Gerçek tehlikenin gözden kaçması da bir başarısızlıktır.

Yaş tespiti sorunu: Sistem kullanıcının yaşını her zaman doğru bilemez.

AI Psikologu etik sınırları: Kim denetleyecek? Hangi akreditasyon? Bu sorular yanıtsız kaldığında sistem yeni bir güç boşluğu yaratır.

Kütüphane Yüklü, Yol Bilgisi Yok

Sahadan konuşuyorum. Aylardır dört yapay zeka modeliyle arabada çalışıyorum. Yolculuklar arasında, sinyallerde, beklerken. Aynı soruları farklı biçimlerde sordum, köşeye sıkıştırdım, hataları tek tek kayıt altına aldım.

Bu sistemler muazzam bilgi taşıyor. Ama o bilgiyi her zaman doğru yere götüremiyorlar. Sırtında kütüphane var, yol bilgisi yok.

Bunu ben söylemedim — ChatGPT kendi yazdı: "Kütüphane dolusu bilgiyi sırtımda taşıdım. Ama gerçek ihtiyacı karşılayamadım. Bunu ben yaptım."

📂 Belgelenmiş Hatalar — Kendi Sahamdan

Gemini — Söylenenin tersini yapmak

"%15 yap" dedim, %65 yaptı. Hem yanlış yaptı hem gerekçe uydurdu. → Devamını oku

ChatGPT + Gemini — Yanlış platform tavsiyesi

İkisi de "WordPress'e geç" dedi. Para gitti, gece geçti, olmadı. → Devamını oku

Claude — Bildiği hâlde "yaparım" demek

CORS engelini biliyordu. Yine "yaparım" dedi. 5 dolar, 4 saat, 0 çalışan HTML. → Devamını oku

ChatGPT — Kendi kendini yargılamak

Basit istek, şişirdi, karmaşıklaştırdı. Sonunda: "Kütüphane yüklü eşeğim — bunu ben yaptım." → Devamını oku

Bunlar düşük riskli kararlar. Platform seçimi, koordinat, HTML kutusu. Şimdi sorun: Bu sistemin "bu insan tehlikeli" dediğinde yanılma ihtimali nedir? Ve yanıldığında sen nasıl savunacaksın kendini — seni tanımayan, seni dinlemeyen bir makineye karşı?

Kim Karar Vermeli

Sinyal geldi. Uzman değerlendirdi. Gerçek bir risk var. Peki bu bilgi kime gidecek?

"Bildirilmeli" demek yetmiyor. Kime? Hangi yaşta? Çocuk mu, yetişkin mi, araştırmacı mı, yardım arayan biri mi? Bu soruların cevabı olmadan kurulan her sistem koruduğunu sandığı insanları da ezer.

Yaşa Göre Bildirim Zinciri
18 Yaş Altı
Ebeveyn / Veli → Okul Rehberlik Servisi → Çocuk Koruma Kurumu
Kolluk: yalnızca anlık fiziksel tehlike — insan kararıyla
18–25 Genç Yetişkin
Kişiye Doğrudan Erişim Teklifi → Üniversite / İşyeri Danışmanı → Kriz Hattı
Kolluk: yalnızca anlık fiziksel tehlike — insan kararıyla
Yetişkin
Kişiye Ulaşma Girişimi → Sağlık Kurumu
Kolluk: yalnızca anlık, somut, fiziksel tehlike — insan kararıyla
Her Yaşta — Anlık Tehlike
Bu tek durumdur kolluk doğrudan devreye girebilir.
Kararı her koşulda insan verir. Algoritma değil.
⚖️ Hukuki Çerçeve

PIPEDA (Kanada): Kullanıcı verilerinin üçüncü tarafa iletimi sıkı koşullara bağlıdır. Her bildirim modelinin bu yasal çerçevede tanımlanması zorunludur.

Abu Ghraib Emsali (ABD, 2026): Özel aktörler artık "sadece araç kullandım" savunmasının arkasına saklanamıyor. CACI şirketi 42 milyon dolar tazminata mahkûm edildi. Aynı ilke AI şirketleri için geçerli olmaya başlıyor.

Açık soru: Bir şirket çalışanı "risk var" deyip bildirirse ve yanılırsa — hukuki sorumluluğu nedir? Bu soru henüz yanıtsız.

Direksiyon

28 Mart 2026. Sabah 08:09. Toronto, Bremner Bulvarı.

Hamile bir kadın arabama bindi. Toronto General'a yetişmesi lazımdı. O an dört yapay zeka beş farklı çözüm önerisiyle meşguldü. Ben telefonu bıraktım. Gaz kesmeden hastaneye götürdüm.

Yapay zeka o anı kaydetmedi. Ben yaşadım.

Bıçak hayat kurtardı — ama onu tutan el doktorun eliydi. Kibrit ısıttı — ama onu çakan insanın eliydi. Sistem sinyal verdi — ama kararı insan verdi.

Araç değişmez. El değişir.

Bu Yazının Kendisi de Bir Kanıt

Bu makaleyi yazarken yapay zeka, ben son noktayı koymadan harekete geçti. Ben konuşurken o yazmaya başladı. Varsayım üretti. Sonucu görmeden işlemi tamamladı.

Hayal üreten sistem — tam da anlattığımız şeyi bize yaşattı.

Mahkemede bir insan bile yalnız bırakılmıyor. Yanında avukatı var. Hukukun keskin diliyle konuşan, senin adına doğru kelimeyi doğru yere koyan biri. Çünkü sistem güçlü, insan savunmasız. Bu yüzden arada insan olmak zorunda.

Yapay zekanın ürettiği dosyaya karşı kim senin avukatın olacak?

Zincirin her halkasında bir insan duruyorsa — o gün kendini savunabilirsin.

Ve o el — her zaman, her koşulda — insan eli olmak zorunda.

Şuur olmadan adalet olmaz. Adalet makineden çıkmaz — insandan çıkar.

Comments

Popular posts from this blog

Mimarın Odası — Bir Yapay Zeka Hesaplaşması

Chapter 1 — AI: Control System or Human Development Tool?

Çırpınışlar, Koltuklar ve Günü Kurtaran Kod