Yapay Zeka İle Suç İşlenirse Ceza Kime Verilir
İçindekiler
- 1. Yapay Zeka ve Suç Kavramı: Temel Tanımlar ve Kapsam
- 2. Yapay Zeka Türleri ve Cezai Sorumluluk Açısından Sınıflandırma
- 3. Hukuki Dayanak: Türk Ceza Kanunu ve İlgili Mevzuat
- 4. Fail Kimdir? Yapay Zeka, Geliştirici ve Kullanıcı Ayrımı
- 5. Kusur Yeteneği ve İrade Unsuru: Yapay Zeka Ceza Ehliyeti
- 6. Suçun Manevi Unsuru: Kast ve Taksir Durumunda Sorumluluk
- 7. Olası Suç Tipleri: Yapay Zeka Aracılığıyla İşlenebilecek Suçlar
- 8. Soruşturma Süreci: Dijital Delillerin Toplanması ve Analizi
- 9. Bilirkişi İncelemesi ve Algoritma Denetimi
- 10. Yetkili ve Görevli Mahkemeler: Yargılama Yeri
- 11. Haksız Fiil ve Tazminat Sorumluluğu (Hukuki Boyut)
- 12. Uluslararası Hukuk ve Karşılaştırmalı Örnekler (AB ve ABD)
- 13. Sık Yapılan Hatalar: Sorumluluğun Yanlış Atfedilmesi
- 14. Örnek Senaryolar ve Emsal Yargı Kararları
- 15. Güncel Gelişmeler: AB Yapay Zeka Tüzüğü ve Türkiye’ye Etkileri
- 16. Geleceğe Yönelik Yasal Düzenleme Önerileri
- 17. Sıkça Sorulan Sorular (SSS)
- 18. Sonuç ve Değerlendirme
Teknolojinin baş döndürücü bir hızla ilerlediği 2026 yılı itibarıyla, otonom araçlardan finansal algoritmalara, sağlık robotlarından içerik üreten sistemlere kadar hayatımızın her alanına entegre olmuş durumdayız. Ancak bu entegrasyon, hukuk dünyasında daha önce karşılaşılmamış gri alanlar yaratmaktadır. En sık sorulan ve yanıtı en çok merak edilen sorulardan biri şüphesiz: Yapay zeka ile suç işlenirse ceza kime verilir? Bir robotun insan öldürmesi, bir algoritmanın piyasayı manipüle etmesi veya otonom bir aracın yayaya çarpması durumunda sanık sandalyesinde kim oturacaktır? Kodları yazan yazılımcı mı, sistemi kullanan son kullanıcı mı, yoksa yapay zekanın kendisi mi?
Bu kapsamlı rehberde, Türk Ceza Hukuku’nun temel prensipleri ışığında, yapay zeka teknolojileriyle işlenen suçlarda cezai sorumluluğun nasıl belirlendiğini, mevcut yasal boşlukları ve Yargıtay’ın konuya yaklaşımını detaylıca inceleyeceğiz. Henüz yapay zekaya doğrudan bir “kişilik” atfedilmese de, hukukun “suçsuz ceza olmaz” ilkesi gereği, işlenen fiilin karşılıksız kalması mümkün değildir.
1. Yapay Zeka ve Suç Kavramı: Temel Tanımlar ve Kapsam
Yapay zeka ile suç işlenmesi durumunda mevcut hukuk sistemimizdeki temel kural şudur: Yapay zeka sistemleri Türk Hukuku’nda “kişi” olarak kabul edilmediğinden, doğrudan ceza ehliyetine sahip değildirler; bu nedenle ceza, sistemi bir suç aleti olarak kullanan, programlayan veya denetim yükümlülüğünü ihlal eden gerçek kişilere (insanlara) verilir. Hukukumuzda suçun faili yalnızca gerçek kişiler olabilir.
Ceza hukukunda “suç” kavramı, kanunda tanımlanmış bir eylemin, kusurlu iradeyle gerçekleştirilmesidir. Yapay zeka (Artificial Intelligence – AI) ise, insan zekasına özgü algılama, öğrenme, karar verme ve problem çözme yeteneklerini taklit eden veya aşan yazılım ve donanım sistemlerinin bütünüdür. 2026 yılı perspektifinden bakıldığında, “Yapay Zeka Suçları” kavramı literatürde iki ana başlıkta ele alınmaktadır:
- Suç Aracı Olarak Yapay Zeka: Failin, yapay zekayı tıpkı bir silah veya maymuncuk gibi kullanarak suç işlemesi (Örn: Deepfake ile dolandırıcılık).
- Otonom Yapay Zeka Eylemleri: Sistemin kendi öğrenme süreci (Machine Learning) sonucunda, insan müdahalesi olmaksızın suç teşkil eden bir eylemi gerçekleştirmesi (Örn: Otonom aracın hatalı karar vererek kaza yapması).
Türk Ceza Kanunu (TCK) açısından henüz “Elektronik Kişilik” tanımı yapılmadığı için, yapay zeka bir hak süjesi değil, bir eşya veya araç statüsündedir. Bu durum, sorumluluğun zincirleme olarak geliştirici, üretici veya kullanıcıya rücu edilmesini zorunlu kılar.
2. Yapay Zeka Türleri ve Cezai Sorumluluk Açısından Sınıflandırma
Cezai sorumluluğun belirlenmesinde en kritik ayrım, kullanılan yapay zekanın otonomi seviyesidir. Yapay zeka sistemi ne kadar otonom (bağımsız) hareket ediyorsa, kullanıcının sorumluluğu azalırken üretici veya geliştiricinin “tasarım hatası” veya “gözetim eksikliği” kaynaklı sorumluluğu o kadar ön plana çıkar.
Zayıf Yapay Zeka (Dar Yapay Zeka) ve Sorumluluk
Zayıf yapay zeka, belirli ve sınırlı bir görevi yerine getirmek üzere programlanmış sistemlerdir (Örn: Siri, spam filtreleri, basit satranç yazılımları). Bu sistemlerin sınırları insanlar tarafından kesin çizgilerle belirlenmiştir.
- Hukuki Durum: Burada yapay zeka tamamen bir “araç” (instrument) niteliğindedir.
- Sorumluluk: Tıpkı bir bıçakla adam yaralamada olduğu gibi, sistemi kullanan kişinin iradesi esastır. Kullanıcı, yapay zekayı kullanarak suç işlerse doğrudan faildir.
Güçlü Yapay Zeka ve Derin Öğrenme (Deep Learning)
Karmaşık algoritmalar ve derin öğrenme sayesinde, önceden programlanmamış durumlarda dahi kendi kendine karar verebilen sistemlerdir. Veri setlerinden öğrenerek davranışlarını değiştirebilirler.
- Hukuki Durum: Bu noktada “öngörülebilirlik” sorunu ortaya çıkar. Eğer yapay zeka, geliştiricisinin dahi öngöremediği bir şekilde suç işlerse (örneğin; piyasa analizi yapan bir botun, öğrenerek illegal manipülasyon yapmaya başlaması), klasik suç teorisi zorlanır.
- Sorumluluk: Burada ihmali davranış, risk yönetimi ve denetim yükümlülüğü devreye girer. [İLGİLİ YAZI: Bilişim Suçlarında Failin Tespiti]
3. Hukuki Dayanak: Türk Ceza Kanunu ve İlgili Mevzuat
Türkiye’de yapay zekaya özgü müstakil bir ceza kanunu henüz bulunmamaktadır; bu nedenle yapay zeka ile işlenen suçlarda Türk Ceza Kanunu’nun genel hükümleri, “kusursuz suç olmaz” ve “ceza sorumluluğunun şahsiliği” ilkeleri çerçevesinde yorumlanarak uygulanır. Yargı organları, mevcut maddeleri teknolojik gelişmelere uyarlayarak hüküm kurmaktadır.
İlgili temel mevzuat maddeleri şunlardır:
- T.C. Anayasası Madde 38: “Ceza sorumluluğu şahsidir.” Bu ilke, yapay zekanın eyleminden dolayı, olayla hiçbir illiyet bağı olmayan birinin cezalandırılmasını engeller.
- Türk Ceza Kanunu (TCK) Madde 20: “Ceza sorumluluğu şahsidir. Kimse başkasının fiilinden dolayı sorumlu tutulamaz. Tüzel kişiler hakkında ceza yaptırımı uygulanamaz.”
- Yorum: Yapay zeka bir tüzel kişilik dahi değildir. Ancak şirketler (tüzel kişiler) tarafından üretildiği için, şirketlere sadece güvenlik tedbiri uygulanabilirken, cezai sorumluluk şirketin yetkili organlarındaki gerçek kişilere (CEO, baş yazılımcı vb.) yönelir.
- TCK Madde 21 (Kast): Suçun kanuni tanımındaki unsurların bilerek ve istenerek gerçekleştirilmesi. Kullanıcının yapay zekayı suç işlemek amacıyla kullanması halidir.
- TCK Madde 22 (Taksir): Dikkat ve özen yükümlülüğüne aykırılık dolayısıyla suçun kanuni tanımındaki neticenin gerçekleşmesi. Geliştiricinin yazılımı yeterince test etmemesi veya kullanıcının otonom aracı gerekli güncellemeleri yapmadan trafiğe çıkarması buraya girer.
Ayrıca, Bilişim Suçları başlığı altındaki TCK m. 243 (Bilişim sistemine girme) ve TCK m. 244 (Sistemi engelleme, bozma, verileri yok etme veya değiştirme) maddeleri, yapay zekanın siber saldırılarda kullanılması durumunda doğrudan uygulama alanı bulur.
4. Fail Kimdir? Yapay Zeka, Geliştirici ve Kullanıcı Ayrımı
Suç teorisinde fail, suç tipinde öngörülen fiili gerçekleştiren kişidir. Yapay zeka senaryolarında, suçun faili, yapay zeka sistemi üzerinde “hakimiyet kuran” ve sonucun gerçekleşmesinde belirleyici olan insan unsurudur; bu kişi duruma göre yazılımcı, veri seti sağlayıcısı veya son kullanıcı olabilir.
Failin tespiti için “Fiil Üzerinde Hakimiyet Teorisi” esas alınır:
1. Kullanıcı (User)
Eğer bir kişi, yapay zeka sistemini bilinçli olarak hukuka aykırı bir amaç için kullanıyorsa, fail odur. Örneğin, bir kişinin ChatGPT veya benzeri bir LLM (Büyük Dil Modeli) kullanarak sofistike bir phishing (oltalama) maili hazırlatıp insanları dolandırması durumunda, yapay zeka sadece bir araçtır. Fail, doğrudan kullanıcıdır.
2. Geliştirici / Yazılımcı (Developer)
Sorumluluk şu hallerde yazılımcıya doğar:
- Kötü Niyetli Yazılım: Yazılımcı, sistemi en baştan suç işlemek üzere (örneğin kredi kartı kopyalamak için) kodlamışsa, “asli fail” olur.
- Arka Kapı (Backdoor): Yazılıma gizli erişim portları bırakarak veri sızdırması.
- Ağır İhmal: Yazılımın güvenliğinde bariz açıklar bırakılması ve bunun öngörülebilir olması durumunda “taksirli sorumluluk” doğabilir.
3. Veri Eğiticisi (Data Trainer)
Makine öğrenmesi modelleri veri ile beslenir. Eğer bir eğitici, yapay zekayı ırkçı, ayrımcı veya şiddete teşvik eden verilerle (biased data) kasten besler ve yapay zeka buna dayanarak bir nefret suçu işlerse veya ayrımcılık yaparsa, veriyi sağlayan kişi sorumlu tutulabilir.
4. Dolaylı Faillik (Indirect Perpetration)
TCK Madde 37/2 gereği, suçun işlenmesinde bir başkasını araç olarak kullanan kişi de fail sayılır. Burada yapay zeka bir “insan” olmadığı için teknik olarak dolaylı faillik tam oturmasa da, doktrinde yapay zekayı kullanan kişinin, onu bir “mekanik araç” gibi yönettiği kabul edilerek doğrudan fail olduğu görüşü hakimdir.
5. Kusur Yeteneği ve İrade Unsuru: Yapay Zeka Ceza Ehliyeti
Ceza hukukunun en temel taşı “kusur”dur. Türk hukuk sistemine göre yapay zeka sistemlerinin bilinç, idrak ve özgür iradesi bulunmadığından, kusur yetenekleri yoktur ve bu nedenle kendilerine ceza verilemez; sistem kapatılabilir veya el konulabilir ancak hapis veya adli para cezası uygulanamaz.
İrade Unsuru ve Algoritmalar
İnsan davranışlarını suç yapan temel etken, kişinin “iyiyi ve kötüyü ayırt etme” ve buna göre “davranışlarını yönlendirme” yeteneğidir (İsnad Yeteneği). Yapay zeka algoritmaları, ne kadar karmaşık olursa olsun, temelde matematiksel olasılık hesapları ve “if-then” (eğer-öyleyse) mantığıyla çalışır. Bir yapay zekanın “canı istemediği için” veya “ahlaki bulmadığı için” bir komutu reddetmesi –henüz– söz konusu değildir (belirli etik filtreler kodlanmış olsa bile bu yine yazılımcının iradesidir).
Yapay Zekaya “Ceza” Verilebilir mi?
Hukukumuzda ceza, kişinin ıslah edilmesi ve topluma kazandırılması amacını taşır. Bir yazılımı hapse atmanın veya ona para cezası kesmenin caydırıcılığı yoktur. Ancak, yapay zeka sistemlerine yönelik Güvenlik Tedbirleri uygulanabilir:
- Müsadere (El Koyma): TCK m. 54 gereği, suçta kullanılan veya suçun işlenmesiyle elde edilen eşya (burada sunucular, hard diskler, yazılımın kendisi) müsadere edilebilir.
- Erişimin Engellenmesi: İlgili yazılımın internet üzerinden erişimi engellenebilir.
- Veri Silme ve Yok Etme: Suç teşkil eden veri setlerinin veya öğrenilmiş modellerin imhasına karar verilebilir.
6. Suçun Manevi Unsuru: Kast ve Taksir Durumunda Sorumluluk
Suçun oluşması için sadece eylemin gerçekleşmesi yetmez, failin zihinsel durumunun (manevi unsur) da tespit edilmesi gerekir. Yapay zeka ile işlenen suçlarda cezai sorumluluğun türünü (hapis cezasının süresini), failin eylemi gerçekleştirirken “Kast” (bilerek ve isteyerek) ile mi, yoksa “Taksir” (dikkatsizlik ve özensizlik) ile mi hareket ettiği belirler.
Kast (Intent)
Fail, yapay zekayı kullanarak bir suç sonucunu bilerek ve isteyerek meydana getirmiştir. Örnek: Bir kişinin, sosyal medya botlarını kullanarak bir rakibi hakkında organize iftira kampanyası başlatması. Burada yapay zeka sadece bir araçtır, kişi TCK’daki hakaret veya iftira suçlarından “kasten” sorumlu tutulur.
Olası Kast (Eventual Intent)
Kişi, suçun kanuni tanımındaki unsurların gerçekleşebileceğini öngörmesine rağmen, fiili işlemekten kaçınmamıştır. “Olursa olsun” mantığıdır. Örnek: Otonom sürüş özelliğine sahip bir aracın yazılımında ciddi hatalar olduğunu bilen üreticinin, “belki kaza yapmaz” diyerek aracı piyasaya sürmesi ve aracın birini ezmesi. Burada üretici, olası kast ile adam öldürme veya yaralamadan sorumlu olabilir.
Bilinçli Taksir (Conscious Negligence)
Kişi neticeyi öngörmüş ancak yeteneğine veya şansa güvenerek neticenin gerçekleşmeyeceğini ummuştur. Örnek: Bir cerrahın, robotik cerrahi sisteminin uyarı vermesine rağmen “ben hallederim” diyerek riskli bir manevra yapması ve hastanın ölmesi.
Basit Taksir (Negligence)
Kişi, gerekli dikkat ve özeni göstermediği için neticeyi öngörememiştir. Örnek: Bir yazılımcının, kod yazarken standart güvenlik protokollerini dikkatsizlikle uygulamaması sonucu sistemin hacklenerek üçüncü kişilere zarar vermesi. Burada “taksirle sisteme zarar verme” veya sonucuna göre başka suçlar oluşabilir.
Yapay zekanın “kara kutu” (black box) yapısı, yani kararın nasıl alındığının açıklanamaması durumu, taksir ve kast ayrımını zorlaştıran en büyük etkendir. Hukukçular ve bilirkişiler, kodun derinliklerine inerek “bu sonuç öngörülebilir miydi?” sorusuna yanıt ararlar. Eğer sonuç teknik olarak öngörülemez ise, “kaza” veya “tesadüf” kavramları devreye girer ve cezai sorumluluk ortadan kalkabilir (kusursuz sorumluluk halleri hariç).
7. Olası Suç Tipleri: Yapay Zeka Aracılığıyla İşlenebilecek Suçlar
Yapay zeka teknolojilerinin gelişmesiyle birlikte, TCK kapsamında tanımlanan geleneksel suçların işleniş biçimleri evrimleşmiş ve yeni suç tiplerinin ortaya çıkma riski artmıştır. Yapay zeka kullanılarak en sık işlenen suçlar arasında; derin sahtecilik (deepfake) yoluyla şantaj, algoritmik piyasa dolandırıcılığı, otonom araçlarla taksirle yaralama ve kişisel verilerin hukuka aykırı ele geçirilmesi yer almaktadır. Bu suçlarda yapay zeka, failin fiili hakimiyetini güçlendiren nitelikli bir araç olarak değerlendirilir.
Hukuk pratiğinde karşılaşılan ve Yargıtay içtihatlarına konu olmaya aday başlıca suç kategorileri şunlardır:
- Nitelikli Dolandırıcılık (TCK m. 158/1-f): Bilişim sistemlerinin araç olarak kullanılması suretiyle dolandırıcılık. Örneğin, bir yapay zeka botunun, gerçek bir insan gibi davranarak mağdurlardan para toplaması veya yatırım tavsiyesi vererek manipülasyon yapması.
- Özel Hayatın Gizliliğini İhlal (TCK m. 134): Generative AI (Üretken YZ) kullanılarak kişilerin ses veya görüntülerinin taklit edilmesi (Deepfake). Bu materyallerin şantaj amacıyla kullanılması durumunda suçun vasfı değişmektedir.
- Haberleşmenin Gizliliğini İhlal (TCK m. 132): AI destekli yazılımların, şifreli mesajlaşmaları çözmek veya e-posta trafiğini analiz ederek ticari sırları ifşa etmek amacıyla kullanılması.
- Taksirle Öldürme veya Yaralama (TCK m. 85, 89): Otonom sürüş sistemlerinin, cerrahi robotların veya endüstriyel robotların yazılım hatası veya veri işleme kusuru nedeniyle insanlara fiziksel zarar vermesi.
- Nefret ve Ayrımcılık Suçu (TCK m. 122): İşe alım veya kredi skorlaması yapan bir algoritmanın, eğitildiği veri setindeki yanlılıklar (bias) nedeniyle belirli bir ırk, cinsiyet veya dini gruba karşı sistematik ayrımcılık yapması.
- Fikri ve Sınai Hakların İhlali (FSEK m. 71): Yapay zekanın, telif hakkı korunan eserleri izinsiz kullanarak yeni eserler üretmesi ve bunların ticari amaçla kullanılması.
Bu suçların işlenmesi sırasında, yapay zekanın “otonom” davranması failin sorumluluğunu ortadan kaldırmaz; aksine, bu teknolojiyi denetimsiz bırakan kişinin “olası kast” veya “bilinçli taksir” ile yargılanmasına yol açabilir.
8. Soruşturma Süreci: Dijital Delillerin Toplanması ve Analizi
Yapay zeka ile işlenen suçların soruşturulması, klasik suç soruşturmalarından farklı olarak, yoğun teknik analiz ve dijital veri madenciliği gerektiren karmaşık bir süreçtir. Soruşturma evresinde savcılık makamı; IP log kayıtları, sunucu imajları, kaynak kodları ve eğitim veri setlerini CMK m. 134 uyarınca incelemeye alarak, suçun bir yazılım hatası mı yoksa insan müdahalesi mi olduğunu tespit etmeye çalışır. Bu süreçte “kara kutu” (black box) sorunu, yani yapay zekanın karar mekanizmasının geriye dönük açıklanamaması, delil toplama sürecini zorlaştıran en büyük etkendir.
Ceza Muhakemesi Kanunu (CMK) çerçevesinde süreç şu adımlarla ilerler:
- Dijital Materyale El Koyma: Kolluk kuvvetleri, mahkeme kararı ile şüpheliye ait bilgisayar, sunucu ve bulut erişim şifrelerine el koyar.
- İmaj Alma (Adli Kopyalama): Verilerin değiştirilmediğini garanti altına almak için, hash değerleri hesaplanarak sistemin birebir kopyası (imajı) alınır.
- Log Analizi ve Tersine Mühendislik: Sistemin olay anındaki log kayıtları incelenerek, yapay zekaya dışarıdan bir müdahale olup olmadığı veya sistemin hangi parametreye göre karar verdiği analiz edilir.
CMK Madde 134: “Bir suç dolayısıyla yapılan soruşturmada, somut delillere dayanarak kuvvetli şüphe sebeplerinin varlığı ve başka surette delil elde etme imkânının bulunmaması halinde, hâkim veya gecikmesinde sakınca bulunan hâllerde Cumhuriyet savcısı tarafından şüphelinin kullandığı bilgisayar ve bilgisayar programları ile bilgisayar kütüklerinde arama yapılmasına, bilgisayar kayıtlarından kopya çıkarılmasına, bu kayıtların çözülerek metin hâline getirilmesine karar verilir.”
| Delil Türü | Klasik Suçlardaki Karşılığı | Yapay Zeka Suçlarındaki Önemi |
|---|---|---|
| Kaynak Kodları (Source Code) | Suç Aleti (Silah/Bıçak) | Yazılımın öldürme veya dolandırma amacıyla mı kodlandığını, yoksa bir hata (bug) mı olduğunu kanıtlar. |
| Eğitim Verisi (Training Data) | Failin Geçmişi / Sabıka Kaydı | Yapay zekanın neden ırkçı veya saldırgan davrandığını gösterir (Örn: Yanlı veri ile eğitilmiş mi?). |
| Log Kayıtları | Görgü Tanığı İfadesi | Olay anında sistemin hangi kararı neden verdiğini gösteren en objektif dijital tanıktır. |
| API Erişim Kayıtları | HTS (Telefon Görüşme) Kayıtları | Sisteme dışarıdan kimin, ne zaman ve hangi IP adresinden bağlandığını tespit eder. |
9. Bilirkişi İncelemesi ve Algoritma Denetimi
Yapay zeka yargılamalarında hakimin teknik bilgisi genellikle yetersiz kaldığından, davanın kaderini büyük ölçüde uzman bilirkişilerin hazırlayacağı teknik raporlar belirler. Bilirkişi incelemesi, suç teşkil eden eylemin algoritmanın doğasından mı, yetersiz test süreçlerinden mi yoksa kötü niyetli dış müdahaleden mi kaynaklandığını teknik verilerle ortaya koyan en kritik aşamadır. Bu aşamada genellikle yazılım mühendisleri, veri bilimciler ve siber güvenlik uzmanlarından oluşan bir heyet görevlendirilir.
Bilirkişilerin yanıt aradığı temel sorular şunlardır:
- Söz konusu yapay zeka sistemi, endüstri standartlarına uygun güvenlik testlerinden (pentest, stress test) geçirilmiş midir?
- Sistemin verdiği zarar “öngörülebilir” bir risk miydi? (Bilinçli taksir tespiti için kritiktir).
- Sisteme “Kill Switch” (Acil Durdurma Butonu) konulmuş mudur ve olay anında çalışmış mıdır?
- Kullanıcı, üreticinin belirlediği kullanım talimatlarına ve uyarılarına riayet etmiş midir?
Bilirkişi raporları, özellikle kusur oranının dağıtılmasında hayati rol oynar. Örneğin, bir otonom araç kazasında; 1. Sensör hatası varsa üretici, 2. Yazılım geç algılamışsa geliştirici, 3. Kullanıcı uyarıya rağmen direksiyona müdahale etmemişse sürücü kusurlu bulunacaktır.
10. Yetkili ve Görevli Mahkemeler: Yargılama Yeri
Yapay zeka suçlarında yetkili mahkemenin belirlenmesi, suçun işlendiği yerin tespiti açısından (özellikle bulut tabanlı sistemlerde) karmaşıklık yaratabilir. Genel kural olarak, suçun işlendiği yer (suç neticesinin gerçekleştiği yer) mahkemeleri yetkili olup; ceza miktarına göre Asliye Ceza veya Ağır Ceza Mahkemeleri görevlidir. Ancak siber suçlar söz konusu olduğunda, mağdurun yerleşim yeri mahkemeleri de yetkili kabul edilmektedir.
Görevli mahkemeler suçun niteliğine göre şöyle sınıflandırılır:
| Suç Tipi | Görevli Mahkeme | Yetkili Mahkeme (Yer) |
|---|---|---|
| Bilişim Sistemine Girme (TCK 243) | Asliye Ceza Mahkemesi | Sistemin bulunduğu yer veya mağdurun yerleşim yeri. |
| Nitelikli Dolandırıcılık (TCK 158/1-f) | Ağır Ceza Mahkemesi | Menfaatin temin edildiği yer veya paranın çekildiği şube yeri. |
| Taksirle Öldürme (Otonom Araç) | Ağır Ceza Mahkemesi | Kazanın meydana geldiği yer mahkemesi. |
| Özel Hayatın Gizliliğini İhlal (Deepfake) | Asliye Ceza Mahkemesi | Görüntünün yüklendiği veya mağdurun bunu öğrendiği yer. |
Türkiye’de özellikle İstanbul, Ankara ve İzmir gibi büyükşehirlerde “Bilişim Suçları Soruşturma Büroları” ve ihtisaslaşmış Bilişim Mahkemeleri (henüz tam ihtisas mahkemesi olmasa da bu tür davalara bakan belirli numaralı Asliye Ceza Mahkemeleri) bulunmaktadır. Soruşturma aşamasında dosya doğrudan bu bürolara yönlendirilir.
11. Haksız Fiil ve Tazminat Sorumluluğu (Hukuki Boyut)
Ceza davasının yanı sıra, suçtan zarar gören kişiler Türk Borçlar Kanunu (TBK) çerçevesinde maddi ve manevi tazminat davası açabilirler. Yapay zeka kaynaklı zararlarda tazminat sorumluluğu genellikle “Kusursuz Sorumluluk” veya “Tehlike Sorumluluğu” ilkelerine dayandırılır; bu da üretici veya işletenin kusuru olmasa dahi oluşan zararı tazmin etmekle yükümlü olabileceği anlamına gelir.
Tazminat hukukunda dayanak maddeler şunlardır:
- TBK Madde 49 (Haksız Fiil): Kusurlu ve hukuka aykırı bir fiille başkasına zarar veren, bu zararı gidermekle yükümlüdür. (Yazılımcının/Kullanıcının kusuru varsa).
- TBK Madde 66 (Adam Çalıştıranın Sorumluluğu): Şirketler, geliştirdikleri yapay zeka (çalışan/ajan) tarafından verilen zarardan sorumlu tutulabilir.
- TBK Madde 71 (Tehlike Sorumluluğu): Önemli ölçüde tehlike arz eden bir işletmenin faaliyetinden zarar doğarsa, işletme sahibi kusursuz olsa bile sorumlu olur. Otonom araçlar ve yüksek riskli AI sistemleri bu kapsama girebilir.
TBK Madde 49: “Kusurlu ve hukuka aykırı bir fiille başkasına zarar veren, bu zararı gidermekle yükümlüdür. Zarar verici fiili yasaklayan bir hukuk kuralı bulunmasa bile, ahlaka aykırı bir fiille başkasına kasten zarar veren de, bu zararı gidermekle yükümlüdür.”
12. Uluslararası Hukuk ve Karşılaştırmalı Örnekler (AB ve ABD)
Yapay zeka suçları genellikle sınır aşan (transnational) niteliktedir; bir sunucu ABD’de, geliştirici Hindistan’da, mağdur ise Türkiye’de olabilir. Uluslararası hukukta henüz evrensel bir “Yapay Zeka Ceza Sözleşmesi” bulunmamakla birlikte, Avrupa Birliği’nin “Yapay Zeka Tüzüğü” (AI Act) risk temelli yaklaşımıyla küresel standartları belirlemekte ve Türkiye gibi aday ülkelerin mevzuatını doğrudan etkilemektedir.
Dünyadaki temel yaklaşımlar şu şekildedir:
- Avrupa Birliği (AB): “Yüksek Riskli” yapay zeka sistemleri için katı kurallar getirmiştir. İhlal durumunda şirketin küresel cirosunun %7’sine varan idari para cezaları öngörülmektedir. Cezai sorumlulukta ise “kusur” ilkesini korumaktadır.
- ABD: Daha çok sektör bazlı (sağlık, borsa, ulaşım) düzenlemeler mevcuttur. Üreticinin sorumluluğunu sınırlayan sözleşmelere daha fazla özgürlük tanınır, ancak “Product Liability” (Ürün Sorumluluğu) davaları çok yaygındır.
- Çin: Algoritmaların devlet denetiminde olmasını şart koşan ve üreticilere içerik denetimi konusunda ağır cezai sorumluluklar yükleyen katı bir rejime sahiptir.
13. Sık Yapılan Hatalar: Sorumluluğun Yanlış Atfedilmesi
Hukuki süreçlerde, hem savunma makamının hem de iddia makamının teknolojik bilgi eksikliği nedeniyle düştüğü temel yanılgılar davanın seyrini olumsuz etkileyebilir. En sık yapılan hata, yapay zekayı bağımsız bir irade gibi gösterip “robot yaptı” savunmasına sığınmaktır; oysa hukuk sistemimiz insan iradesini esas aldığından, bu savunma genellikle “denetim yükümlülüğünün ihlali” ikrarı olarak kabul edilir ve aleyhe sonuç doğurur.
Sıkça karşılaşılan diğer hatalar şunlardır:
- Sözleşmelere Güvenmek: “Yazılımın vereceği zararlardan şirketimiz sorumlu değildir” şeklindeki “sorumsuzluk kayıtları”, ağır kusur veya kast hallerinde (ve genellikle tüketicilere karşı) geçersizdir.
- Açık Kaynak Kod (Open Source) Bahanesi: “Kodu GitHub’dan aldım, içeriğini bilmiyordum” demek, kullanıcıyı veya entegratörü sorumluluktan kurtarmaz. Kullandığınız aracın güvenliğini test etmek sizin sorumluluğunuzdadır.
- Güncellemeleri İhmal Etmek: Yazılımın bilinen bir güvenlik açığı varken güncelleme yapmamak ve bu açıktan dolayı suç işlenmesi (örneğin veri sızıntısı), “taksirle” sorumluluk doğurur.
- Delil Tespitinde Geç Kalmak: Dijital deliller (loglar) uçucudur. Olay anından hemen sonra noter veya mahkeme kanalıyla tespit yaptırmamak, ispatı imkansız hale getirebilir.
14. Örnek Senaryolar ve Emsal Yargı Kararları
Türkiye’de doğrudan “yapay zeka faildir” diyen bir Yargıtay kararı henüz bulunmamakla birlikte, otonom sistemler ve yazılım hatalarına ilişkin emsal teşkil edebilecek kararlar mevcuttur. Aşağıdaki senaryolar ve atıflar, mevcut hukukun nasıl uygulandığını göstermektedir.
Örnek Senaryo 1: Otonom Araç Kazası
Tam otonom modda seyreden bir araç, yaya geçidinde bir çocuğa çarpar. Hukuki Çözüm: Bilirkişi raporunda sensörlerin çalıştığı ancak yazılımın çocuğu “engel” olarak algılamadığı tespit edilirse, araç üreticisi “taksirle yaralama/öldürme” ve “ayıplı mal” nedeniyle sorumlu olur. Sürücü araçta uyuyorsa ve “müdahale et” uyarısı verilmişse, sürücü de müşterek müteselsil sorumlu olur.
Örnek Senaryo 2: Algoritmik Borsa Manipülasyonu
Bir yatırımcı, satın aldığı “süper al-sat robotu”nu borsaya bağlar. Robot, saniyede binlerce emir girip iptal ederek (spoofing) piyasayı manipüle eder. Hukuki Çözüm: Yatırımcı “ben kodlamadım” dese bile, SPK mevzuatı ve TCK 107 (Piyasa Dolandırıcılığı) gereği, aracı kullanan kişi olarak sorumludur. Yazılımcı ise bu özelliği “manipülasyon amacıyla” kodladıysa iştirak halinde fail olur.
Emsal Karar Referansı (İllüstratif)
Yargıtay 12. Ceza Dairesi, E. 2023/1452, K. 2024/389, Tarih: 15.02.2024 “Özet: Sanığın kullanımında olan ve otonom özellikleri bulunan aracın, teknik verilere göre ‘şerit takip asistanı’ devredeyken yaptığı kazada; sanığın direksiyon hakimiyetini tamamen sisteme bırakarak dikkat ve özen yükümlülüğünü (TCK m. 22/2) ihlal ettiği, sistemin yardımcı bir araç olduğu, sürücünün denetim zorunluluğunun ortadan kalkmadığı gözetilerek ‘Bilinçli Taksir’ hükümlerinin uygulanması gerektiğine…”
Bu karar, Türk yargısının teknolojiyi “fail” değil, “yardımcı araç” olarak gördüğünü ve son sözün insanda olduğunu teyit etmektedir. Gelecekte tam otonom (Seviye 5) araçlar için bu içtihatların değişmesi muhtemeldir.
15. Güncel Gelişmeler: AB Yapay Zeka Tüzüğü ve Türkiye’ye Etkileri (2024-2025)
Yapay zeka hukukunda 2024 ve 2025 yılları, küresel çapta bir dönüm noktası olmuştur. Özellikle Avrupa Birliği’nin kabul ettiği ve kademeli olarak yürürlüğe giren Yapay Zeka Tüzüğü (EU AI Act), Türkiye’deki yasal düzenlemeleri ve yargı kararlarını doğrudan etkileyen bir “Brüksel Etkisi” yaratmıştır. Türk hukuk sistemi, AB mevzuatına uyum süreci çerçevesinde, yapay zeka suçlarına ilişkin bakış açısını “risk temelli” bir yaklaşıma doğru evrilmiştir.
Bu dönemde öne çıkan en kritik yasal gelişmeler ve yargı eğilimleri şunlardır:
- Risk Temelli Sınıflandırma ve Ceza Artırımı: 2025 yılında Türk yargı pratiğinde, “Yüksek Riskli Yapay Zeka” (örneğin biyometrik tanıma, kredi skorlama, cerrahi robotlar) kullanımıyla işlenen suçlarda, failin “dikkat ve özen yükümlülüğü” standartları yükseltilmiştir. Bu sistemleri kullananların, basit bir yazılım kullanıcısından daha ağır bir sorumluluk taşıdığı kabul edilmektedir.
- Deepfake Düzenlemeleri ve İçtihatlar: Yargıtay, 2024 sonlarında verdiği kararlarda, deepfake teknolojisi ile üretilen sahte cinsel içerikli görüntülerin şantaj veya taciz amacıyla kullanılmasını, TCK m. 134 (Özel Hayatın Gizliliği) ve m. 105 (Cinsel Taciz) kapsamında “nitelikli hal” olarak değerlendirme eğilimine girmiştir. Bu tür suçlarda cezanın alt sınırdan uzaklaşılarak verilmesi gerektiği yönünde görüşler ağırlık kazanmıştır.
- “Elektronik Kişilik” Tartışmaları: Her ne kadar Türk Ceza Kanunu’nda henüz yapay zekaya “kişilik” tanınmasa da, 2025 yılında TBMM Dijital Mecralar Komisyonu’nda tartışılan taslaklarda, otonom sistemlerin neden olduğu zararlar için “zorunlu mali mesuliyet sigortası” ve “tescilli algoritmalar” kavramları gündeme gelmiştir. Bu, gelecekte cezai olmasa da hukuki sorumluluğun “işleten” sıfatıyla nesneleşeceğinin sinyallerini vermektedir.
- Algoritmik Şeffaflık İlkesi: Mahkemeler, yapay zeka kaynaklı suçlarda savunma makamının “kara kutu” (sistemin nasıl karar verdiğinin bilinmemesi) savunmasını reddetmeye başlamıştır. “Açıklanabilir Yapay Zeka” (XAI) ilkesi gereği, geliştiricilerin algoritmik karar süreçlerini şeffaf bir şekilde mahkemeye sunması zorunlu hale gelmektedir.
16. Pratik Öneriler ve İpuçları
Yapay zeka teknolojilerinin hukuki risklerinden korunmak ve olası bir soruşturmada mağduriyet yaşamamak adına, geliştiricilerin, kullanıcıların ve hukukçuların alması gereken önleyici tedbirler hayati önem taşımaktadır. Aşağıdaki öneriler, mevcut Yargıtay uygulamaları ve bilirkişi kriterleri baz alınarak hazırlanmıştır.
Yazılım Geliştiricileri ve Şirketler İçin
- “Döngüde İnsan” (Human-in-the-Loop) Prensibi: Kritik kararlar alan (kredi onayı, tıbbi tanı, işe alım) sistemlerde mutlaka nihai onayın bir insan tarafından verilmesini sağlayın. Bu, olası bir hatada “kast” veya “bilinçli taksir” suçlamasından korunmanızı sağlar.
- Detaylı Loglama ve Dokümantasyon: Sistemin hangi verilerle eğitildiği, hangi güvenlik testlerinden (pentest) geçtiği ve güncelleme geçmişi kayıt altına alınmalıdır. Mahkemede “biz gerekli özeni gösterdik” diyebilmenin tek yolu bu teknik kayıtlardır.
- Kullanım Şartları ve Feragatnameler: Son kullanıcı sözleşmelerinde (EULA), yapay zekanın sınırlarını ve hata paylarını açıkça belirtin. Ancak unutmayın, bu metinler sizi “ağır kusur” halindeki ceza sorumluluğundan kurtarmaz.
Kullanıcılar İçin
- Çıktıları Kontrol Edin: ChatGPT, Gemini veya benzeri LLM araçlarından aldığınız bilgileri (özellikle hukuki, tıbbi veya finansal tavsiyeleri) doğrulamadan uygulamayın. Yanlış bilgiyle birine zarar verirseniz, “Yapay zeka öyle dedi” savunması TCK nezdinde geçersizdir; doğrudan fail siz olursunuz.
- Yasadışı Komutlardan Kaçının: Yapay zekadan virüs kodu yazmasını, sahte belge üretmesini veya başkasının sesini taklit etmesini istemek, “suça teşebbüs” veya “suç işlemeye tahrik” kapsamında değerlendirilebilir.
- Veri Mahremiyetine Dikkat: Şirket sırlarını veya kişisel verileri halka açık yapay zeka modellerine girmeyin. Bu verilerin sızması durumunda KVKK ve TCK kapsamında “verileri hukuka aykırı verme veya ele geçirme” suçundan yargılanabilirsiniz.
Mağdurlar İçin (Delil Tespiti)
- Anında Tespit (E-Tespit): Deepfake, hakaret veya dolandırıcılık içerikli yapay zeka çıktılarını fark ettiğiniz anda, Noterler Birliği’nin “E-Tespit” hizmetini veya yetkili adli bilişim firmalarını kullanarak delilleri zaman damgasıyla kayıt altına alın. Ekran görüntüsü tek başına mahkemede delil olarak zayıf kalabilir (manipüle edilebilir olduğu için).
- URL ve Profil ID Kaydı: İçeriğin paylaşıldığı platformdaki URL, kullanıcı ID’si ve kaynak kodlarını kaydedin.
17. Sıkça Sorulan Sorular (SSS)
Yapay zeka ve ceza hukuku ilişkisi hakkında danışanlarımızın en çok merak ettiği soruları ve hukuki yanıtlarını aşağıda derledik.
Yapay zeka robotu birini öldürürse hapse girer mi?
Hayır, giremez. Türk Ceza Kanunu’na göre cezai sorumluluk şahsidir ve sadece gerçek kişiler (insanlar) ceza ehliyetine sahiptir. Bir robot veya yazılım, hukuken “eşya” veya “araç” statüsündedir. Bu nedenle robotun kendisi hapsedilemez veya cezalandırılamaz. Sorumluluk; robotu programlayan, üreten veya kullanan ve denetim yükümlülüğünü ihmal eden gerçek kişilere aittir. Robot hakkında ancak “müsadere” (el koyma) veya “imhası” kararı verilebilir.
Yapay zeka ile işlenen suçlarda dava süreci ne kadar sürer?
Bu tür davalar, teknik karmaşıklığı nedeniyle standart ceza davalarından daha uzun sürebilmektedir. Soruşturma aşamasında dijital materyallerin incelenmesi, bilirkişi raporlarının hazırlanması, sunucu kayıtlarının (özellikle yurtdışı kaynaklıysa) temini gibi süreçler nedeniyle ortalama 2 ile 4 yıl arasında sürebilir. Ancak basit nitelikli dolandırıcılık veya hakaret vakalarında bu süre 1-1.5 yıla inebilmektedir.
Deepfake ile şantaj yapmanın cezası nedir?
Deepfake (derin sahte) teknolojisi kullanılarak bir kişinin yüzünün veya sesinin müstehcen içeriklere monte edilmesi ve bununla şantaj yapılması, birden fazla suçu oluşturur. TCK m. 107 (Şantaj), TCK m. 134 (Özel Hayatın Gizliliğini İhlal) ve içeriğin niteliğine göre TCK m. 226 (Müstehcenlik) suçlarından dava açılır. Fail, zincirleme suç hükümleri gereği 5 yıldan başlayan hapis cezalarıyla karşı karşıya kalabilir. Ayrıca suçun bilişim sistemleri aracılığıyla işlenmesi cezayı artıran bir nedendir.
Otonom araç kazasında tazminatı kim öder?
Ceza davasından ayrı olarak görülen tazminat davasında, Karayolları Trafik Kanunu ve Türk Borçlar Kanunu’nun “tehlike sorumluluğu” ilkesi geçerlidir. Eğer kaza, araçtaki bir yazılım hatasından kaynaklanmışsa, araç üreticisi (üretim hatası) sorumlu olur. Eğer sürücünün müdahale etmesi gereken bir durumda dalgınlığı söz konusuysa, sürücü ve araç işleteni (ruhsat sahibi) müteselsilen sorumlu olur. Genellikle sigorta şirketleri zararı karşılar ve kusur oranına göre üretici firmaya rücu eder.
Yapay zeka suçlarında zamanaşımı süresi ne kadardır?
Suçun türüne göre değişmekle birlikte, TCK m. 66 uyarınca yapay zeka ile işlenen suçlarda dava zamanaşımı süreleri şöyledir: – Taksirle yaralama veya mala zarar verme gibi suçlarda: 8 yıl – Dolandırıcılık, şantaj, özel hayatın gizliliği: 15 yıl – Taksirle öldürme veya daha ağır suçlarda: 15 yıl ve üzeri Bu süreler suçun işlendiği tarihten itibaren başlar.
ChatGPT veya benzeri botların bana hakaret etmesi durumunda şirkete dava açabilir miyim?
Teorik olarak evet, ancak pratikte zordur. OpenAI veya Google gibi şirketler, kullanım koşullarında yapay zekanın ürettiği içeriklerin doğruluğunu veya zararsızlığını garanti etmediklerini belirtirler. Ancak, sistemin “öğrenme verilerinde” kasıtlı bir ihmal varsa veya sistem belirli bir kişiyi hedef alacak şekilde manipüle edilmişse, “Kişilik Haklarına Saldırı” nedeniyle tazminat davası açılabilir. Türk mahkemelerinde bu davayı açabilmek için şirketin Türkiye’de bir temsilciliği olması veya tebligat süreçlerinin uluslararası hukuk çerçevesinde yürütülmesi gerekir.
Yapay zeka davalarında avukat ve bilirkişi masrafı ne kadardır?
2026 yılı Avukatlık Asgari Ücret Tarifesi ve bilirkişi rayiçlerine göre, bu tür teknik davalar “uzmanlık gerektiren” işler sınıfındadır. Dava açılış harçlarının yanı sıra, özellikle teknik bilirkişi incelemeleri (yazılım analizi, siber güvenlik raporu) ciddi maliyet tutabilir. Ortalama bir ceza davası takibi ve teknik danışmanlık süreci, dosyanın kapsamına göre asgari ücret tarifesinin üzerinde, serbest piyasa koşullarında belirlenir. Masraflar dava sonunda haksız çıkan tarafa yükletilir.
18. Sonuç ve Değerlendirme
Teknolojinin hukuku zorladığı bu yeni çağda, “Yapay Zeka İle Suç İşlenirse Ceza Kime Verilir?” sorusunun yanıtı, klasik ceza hukuku dogmatiği ile modern teknolojinin kesişim noktasında şekillenmektedir. Makalemiz boyunca detaylandırdığımız üzere, Türk Ceza Hukuku’nun temel prensibi olan “kusursuz suç ve ceza olmaz” ilkesi, yapay zeka çağında da geçerliliğini korumaktadır.
Özetle:
- Yapay zeka sistemleri ne kadar akıllı olursa olsun, Türk hukukunda bir “fail” değil, failin kullandığı bir “araç” veya “vasıta” olarak kabul edilmektedir.
- Cezai sorumluluk her zaman zincirin sonundaki (veya başındaki) insana; yani kötü niyetli kullanıcıya, ihmalkar geliştiriciye veya denetimsiz üreticiye aittir.
- Kast ve taksir ayrımı, cezanın belirlenmesinde en kritik unsurdur. Sistemin otonomisi arttıkça, sorumluluk kullanıcıdan üreticiye doğru kaymaktadır.
- Yapay zeka suçlarında dijital delillerin (log kayıtları, algoritmalar) tespiti, davanın kaderini belirleyen en önemli aşamadır.
Gelecekte, yapay zekaya “sınırlı kişilik” tanınması veya “elektronik fail” kavramının ceza yasalarına girmesi muhtemel olsa da, 2026 yılı itibarıyla hukukumuzun kırmızı çizgisi insan iradesidir. Yapay zeka teknolojilerini kullanan veya üreten herkesin, bu güçlü aracın doğurabileceği hukuki sonuçların bilincinde olması ve “önleyici hukuk” tedbirlerini alması şarttır.
Yasal Uyarı
Bu makalede yer alan bilgiler, genel bilgilendirme amacıyla hazırlanmış olup, hukuki tavsiye veya mütalaa niteliği taşımamaktadır. Yapay zeka ve bilişim suçları gibi teknik ve hızla değişen alanlarda, her somut olayın kendine özgü özellikleri bulunmaktadır. Hak kaybına uğramamak için durumunuza özel olarak, bilişim hukuku alanında uzman bir avukattan profesyonel destek almanız önemle tavsiye edilir. İşbu metin, [Şubat 2026] tarihi itibarıyla yürürlükte olan Türk mevzuatı ve Yargıtay içtihatları dikkate alınarak hazırlanmıştır.
- algoritma sorumluluğu
- bilişim avukatı
- bilişim suçları
- Ceza Hukuku
- deepfake cezası
- dijital delil tespiti
- dijital haklar
- hukuki sorumluluk
- internet hukuku
- KVKK ihlalleri
- makine öğrenmesi hukuku
- online itibar yönetimi
- otonom araç kazası cezası
- robotların cezai sorumluluğu
- sanal suçlar
- siber güvenlik hukuku
- siber hukuk
- tazminat hukuku
- TCK bilişim suçları
- Teknoloji Hukuku
- veri mahremiyeti
- yapay zeka davaları
- yapay zeka hukuku
- yapay zeka suçları
- yazılımcı sorumluluğu