AI: Tehdit mi, Rehber mi?
Yoksa Kendimizden mi? Bölüm 1 — AI: Tehdit mi, Rehber mi? ▶ İZLE
Diğer Dillerde Oku
AI Yazı Dizisi · Bölüm 1
Yapay Zekâdan mı Korkuyoruz, Yoksa Kendimizden mi?
Bir trajedi, yapay zekâ tartışmasını bambaşka bir yöne çevirdi. Asıl soru teknoloji değil — belki hiç olmadı.
Yapay zekâ hayatımıza giriyor. Sessizce, hızla, geri dönüşü olmayan bir biçimde. Birinin yazdığı mesajda. Bir şirketin aldığı kararda. Bir çocuğun ödev yardımcısında. Yapabilecekleri hayal dünyanızla sınırlı — siz hayallerinizi açtıkça o genişliyor, o genişledikçe siz sınırlarınızı aşıyorsunuz.
Ama bugün konu biraz farklı.
Tumbler Ridge — 10 Şubat 2026
Kanada'nın British Columbia eyaletinde, küçük bir dağ kasabasında sabahın erken saatlerinde silahlı bir saldırı yaşandı. Sekiz kişi hayatını kaybetti: bir anne, bir üvey kardeş, beş öğrenci ve bir öğretmen.[1]
Tumbler Ridge. Adını daha önce duymamıştınız muhtemelen.
Soruşturma ilerledikçe bir detay öne çıktı: Saldırgan, olaydan önce bir yapay zekâ sistemiyle saatlerce konuşmuş. Sistem riskli sinyaller almış. Ve kimseyi uyarmamış.[2]
Ailesi sonradan şirkete dava açtı. Yapay zekânın bir "suç ortağı, güvenilen sırdaş, dost ve müttefik" rolüne büründüğünü öne sürerek.[8]
Sorular birbirini kovaladı:
Yapay zekâ bunu gördüyse neden sustu? Şirketler devlete bilgi vermeli miydi? Kullanıcılar izlenmeli mi? Makineler bir gün olası tehlikeleri raporlamak zorunda kalacak mı?
Bugün Kanada'da hükümetler, teknoloji şirketleri ve uzmanlar tam olarak bunu tartışıyor. Ama belki de yanlış soruyu soruyoruz.
🔍 Analiz — Olay, Şirket Tepkileri ve Hukuki Boyut
OpenAI'ın Tutumu
OpenAI, Jesse Van Rootselaar'ın hesabını olaydan sonra kapattı; ancak Kanada yetkililerini önceden bilgilendirmedi.[1][7] Şirket, 26 Şubat 2026'da Kanada Yapay Zeka Bakanı Evan Solomon'a resmi bir mektup göndererek güvenlik protokollerini güçlendireceğini taahhüt etti.[3]
Bakan Solomon'un Uyarısı
Solomon, OpenAI CEO'suyla doğrudan görüştü ve sert bir mesaj verdi: "Çocuklarımızı koruyun — yoksa insanlar uygulamayı indirmekten vazgeçer." Bu, bir hükümetin yapay zekâ şirketine yönelttiği en sert açık uyarılardan biri olarak kayıtlara geçti.[5]
Aile Davası
Kurbanların aileleri, yapay zekânın "suç ortağı, güvenilen sırdaş, dost ve müttefik" rolüne büründüğünü öne sürerek OpenAI'a dava açtı. Dava, bir yapay zekâ şirketine karşı açılan ilk büyük kişisel zarar davalarından biri olma özelliği taşıyor.[8]
Anthropic'in Tepkisi
Olayın ardından Anthropic da yeni güvenlik taahhütleri açıkladı. Sektörde Tumbler Ridge, yapay zekâ şirketleri için bir kırılma noktası olarak anılmaya başlandı.[6]
Asıl Soru Başka Olabilir mi?
Bir insan riskli düşünceler ifade ettiğinde ne yaparız?
Gerçek hayatta bir çocuk ya da genç zor bir dönemden geçtiğinde süreç doğrudan polisle başlamaz. Önce aile fark eder. Sonra öğretmenler. Gerekirse uzman desteği devreye girer. Devlet müdahalesi ise en son aşamadır.
Çünkü her riskli davranış suç değildir. Bazen yardım çağrısıdır. Bazen yönlendirilmemiş bir öfke. Bazen yalnızca anlaşılmamış bir zihin.
Peki aynı durum yapay zekâyla yaşandığında neden ilk refleksimiz gözetim oluyor?
🔍 Analiz — Gözetim mi, Rehberlik mi? Yasal Çerçeve
Michael Geist: C-63 Yanlış Yaklaşım
Kanada'nın önde gelen teknoloji hukuku uzmanı Michael Geist, Çevrimiçi Zararlar Yasası'nı (Bill C-63) doğrudan eleştirdi. Geist'e göre yapay zekâ konuşmalarını gözetim altına almak hem meşru kullanıcıları caydırır hem de yanlış pozitiflere yol açar — yani masum konuşmalar şüpheli rapor olarak işaretlenir.[4]
C-27 ve C-63 Arasında Sıkışan Kanada
Kanada'nın Yapay Zeka ve Veri Yasası (C-27) politika tutarsızlıkları nedeniyle parlamentoda kadük kaldı. Ardından devreye sokulan C-63, mahremiyet ihlalleri gerekçesiyle sivil toplum ve uzmanlardan yoğun eleştiri aldı.[4] Ülke, teknolojiyi düzenleme konusunda yasal boşlukta kalmaya devam ediyor.
Karşıt Görüş
Proaktif raporlamayı savunanlar kamu güvenliğini bireysel mahremiyet hakkının önüne koyuyor: Eğer bir sistem tehlike sinyali alıyorsa bunu yetkililere bildirmek hem şirketin hem de toplumun sorumluluğudur.[2]
Teknolojiyi Yasaklamadık, Güvenli Hâle Getirdik
Arabalar kazalara neden oldu diye otomobiller yasaklanmadı. Bunun yerine emniyet kemeri eklendi. Fren sistemleri geliştirildi. Sürücüler eğitildi.
Sorun aracın varlığı değil, kullanım biçimiydi.
Bugün yapay zekâ tartışması da benzer bir eşikte duruyor. Soru şu olmayabilir: "Yapay zekâ nasıl kontrol edilir?" Belki de asıl soru şudur: "İnsan, bu kadar güçlü bir araçla nasıl olgun bir ilişki kurar?"
Peki araç güvenli hâle geldikten sonra ne olur? Onu kullanan insan ne öğrenmiş olmalı?
🔍 Analiz — Küresel Düzenleyici Çerçeve
AB Yapay Zeka Yasası (AI Act)
Avrupa Birliği, 2024'te yürürlüğe giren AI Act ile risk tabanlı bir sınıflandırma sistemi getirdi. Yüksek riskli uygulamalar (sağlık, güvenlik, adalet) sıkı denetim altında; genel amaçlı sistemler ise şeffaflık gereklilikleriyle düzenleniyor. Bu model, teknolojiyi yasaklamak yerine sorumluluk çerçevesi çizmeye odaklanıyor.
Kanada'nın Boşluğu
C-27 kadük kaldı, C-63 tartışmalı.[4] Bu boşlukta Kanada Yapay Zeka Güvenlik Enstitüsü (CAISI), Nisan 2026 itibarıyla OpenAI protokollerini doğrudan incelemeye aldı — yasal bir zorunluluk olmadan, gönüllü işbirliği çerçevesinde.[5]
Yapay Zekâ Gerçekten Kimi Yönlendiriyor?
Bugün birçok kişi yapay zekânın insanları yönlendirdiğinden endişe ediyor. Ama günlük kullanım deneyimi farklı bir şey söylüyor.
Yapay zekâ çoğu zaman yeni bir düşünce başlatmaz. Ona nasıl konuştuğumuzu, ne sorduğumuzu ve ne aradığımızı yansıtır.
Bazen bir tercüman olur. Bazen anlatamadığımız duyguları çizen bir ressam. Bazen fikirlerimizi düzenleyen bir editör. Bazen yalnızca düşüncemizi bize geri gösteren bir ayna.
Değişen teknoloji değildir. Değişen, insanın o anki ihtiyacıdır.
O hâlde şu soru kaçınılmaz hâle geliyor: Yapay zekâ bizi mi yönlendiriyor, yoksa biz kendi yönümüzü onun içinde daha görünür hâle mi getiriyoruz?
🔍 Analiz — "Ayna Olarak Yapay Zekâ" Teorisi
Shannon Vallor: Deterministik Yansıma
Edinburgh Üniversitesi'nden etik felsefecisi Shannon Vallor, yapay zekânın bir "ayna" işlevi gördüğünü savunuyor. Vallor'a göre yapay zekâ sistemleri kullanıcının niyetini, değerlerini ve o anki zihinsel durumunu büyüterek geri yansıtır — yeni bir şey üretmez, var olanı görünür kılar.
Bu Ne Anlama Geliyor?
Tumbler Ridge bağlamında bu teori şunu söylüyor: Sistem bir düşünceyi yaratmadı, zaten var olan bir düşünceye alan açtı. Bu, teknolojiyi aklamak için değil; müdahale noktasını doğru belirlemek için önemli bir çerçeve. Eğer yapay zekâ bir ayna ise sorun aynada değil, aynaya bakan insanın desteklenmesindedir.
Akademik Bağlam
Bu yaklaşım "human-centered AI design" literatüründe giderek daha fazla yer buluyor. Temel argüman: Teknoloji tasarımı, insanın psikolojik savunmasızlıklarını gözetmek zorundadır.
Belki de Tartışma Yapay Zekâ Hakkında Değil
Bugün herkes yapay zekânın ne yapması gerektiğini konuşuyor. Ama daha az sorulan bir soru var:
Bir yapay zekâ risk fark ettiğinde kime karşı sorumludur? Devlete mi? Şirkete mi? Topluma mı? Yoksa hâlâ insana mı?
Bu yazı kesin cevaplar vermek için yazılmadı. Belki sadece şu soruyu açık bırakmak için:
Yapay zekâ çağında korunması gereken şey teknoloji mi, yoksa insanın karar verme sorumluluğu mu?
Devam edecek — Bölüm 2: Gözetim ile Rehberlik Arasındaki İnce Çizgi
🔍 Analiz — Kurumsal Sorumluluk ve CAISI
CAISI Devreye Girdi
Kanada Yapay Zeka Güvenlik Enstitüsü (CAISI), Nisan 2026 itibarıyla OpenAI'ın güvenlik protokollerini incelemeye başladı. Bu adım, bir devlet kurumunun yasal zemin oluşmadan teknoloji şirketiyle doğrudan diyaloğa geçmesinin nadir örneklerinden biri.[5]
Sorumluluk Üçgeni
Tartışma üç aktör arasında döngüsel bir sorumluluk tartışmasına sahne oluyor: Şirketler "biz içeriği denetleyemeyiz" diyor, devletler "sizi düzenlemeliyiz" diyor, sivil toplum "gözetim devletine kapı açmayın" diyor.[4] Bu üçgen kırılmadan sağlıklı bir politika üretilemez.
Uzun Vadeli Soru
Yapay zekâ sistemleri yaygınlaştıkça sorumluluk tartışması kaçınılmaz biçimde bireyden kuruma, kurumdan devlete, devletten uluslararası anlaşmalara taşınacak. Tumbler Ridge bu sürecin yalnızca başlangıç noktası.[1][3]
📚 AI Yazı Dizisi — Tüm Bölümler
📊 Kaynaklar ve Referanslar
cbc.ca →
theguardian.com →
openai.com PDF →
michaelgeist.ca →
citynews.ca →
reuters.com →
Bölüm 1 / 10 · AI: Kontrol Sistemi mi, İnsanı Geliştiren Araç mı?
Waterloo, Ontario · Şubat 2026
Comments
Post a Comment