0 555 339 7979 - 0 532 708 30 04
Avrupa Birliği Yapay Zekâ Yasası.
Avrupa Birliği’nin Yapay Zekâ Yasası’nı tüm detayları
Avrupa Birliği’nin Yapay Zekâ Yasası Yürürlükte: Şirketlere Milyar Dolarlık Ceza Kapıda
Dünyanın ilk kapsamlı yapay zekâ düzenlemesi olan AB Yapay Zekâ Yasası (AI Act), 2 Ağustos 2024’te yürürlüğe girdi. Yasaklanan uygulamalar şubat ayı itibarıyla tamamen devre dışı kalırken, şirketler için en ağır yükümlülükler 2026 yazında başlıyor. İhlal eden firmalar, küresel cirolarının yüzde 7’sine kadar ceza ile karşı karşıya kalabilir.
Avrupa Birliği, yapay zekâ teknolojilerini “risk temelli” bir yaklaşımla düzenleyen ilk yasal çerçeveyi hayata geçirdi. 2 Ağustos 2024’te yürürlüğe giren Yapay Zekâ Yasası (AI Act), AB içinde kullanılan veya AB vatandaşlarını etkileyen tüm yapay zekâ sistemlerini kapsıyor. Bu, yasa kapsamında AB dışındaki şirketlerin de doğrudan sorumlu olduğu anlamına geliyor.
Yasa, tüm yapay zekâ sistemlerini dört risk kategorisine ayırıyor: kabul edilemez risk, yüksek risk, sınırlı risk ve minimal risk. Risk seviyesi yükseldikçe şirketlerin yükümlülükleri de artıyor.
YASAKLANAN 8 UYGULAMA
Kabul edilemez risk kategorisinde yer alan 8 uygulama, 2 Şubat 2026 itibarıyla tamamen yasaklandı. Bunlar arasında:
Sosyal skorlama (vatandaşları puanlama sistemleri)
İşyeri ve eğitim kurumlarında duygu tanıma sistemleri
Gerçek zamanlı uzaktan biyometrik tanımlama (çok dar istisnalar hariç)
Sadece profil veya kişilik özelliklerine dayanarak suç tahmini yapma
İnternet veya kameralardan izinsiz yüz görüntüsü toplama
Bilinçaltı manipülasyon yoluyla kişiyi yönlendirme
Zafiyetleri (yaş, engellilik, ekonomik durum) istismar etme
Irk, din, cinsel yönelim gibi hassas kategorilerde biyometrik sınıflandırma
Bu yasakları ihlal eden şirketlere 35 milyon Euro veya küresel cirosunun yüzde 7’sine kadar ceza kesilebilecek.
YÜKSEK RİSKLİ SİSTEMLERE 10 YÜKÜMLÜLÜK
2 Ağustos 2026’dan itibaren yüksek riskli sistemler için ağır yükümlülükler devreye giriyor. Yasanın “yüksek riskli” saydığı alanlar şöyle:
Alan Örnekler
Kritik altyapı Su, gaz, elektrik, ulaşım yönetimi
Eğitim Okula kabul, sınav değerlendirme, kariyer yönlendirme
İstihdam CV filtreleme, performans değerlendirme, işe alım
Kamu ve özel hizmetler Kredi skorlama, sağlık sigortası primleri
Kolluk kuvvetleri Risk değerlendirmeleri, delil değerlendirmesi
Göç ve sınır yönetimi Vize ve sığınma başvuruları
Adalet Mahkemelere yardımcı sistemler
Biyometrik tanımlama Uzaktan tanımlama sistemleri
Bu kategorideki sistemleri geliştiren veya kullanan şirketlerin yerine getirmesi gereken 10 temel yükümlülük bulunuyor: risk yönetim sistemi kurma, eğitim verilerinin kalitesini ve temsiliyetini sağlama, teknik dokümantasyon hazırlama, insan gözetimi mekanizması oluşturma, kayıt tutma ve piyasa sonrası izleme gibi.
CHATBOT’LAR İÇİN ETİKETLEME ZORUNLULUĞU
“Sınırlı risk” kategorisindeki sistemler için ise tek yükümlülük şeffaflık. 2 Ağustos 2026’dan itibaren:
Chatbot ve yapay asistanlar, kullanıcıya yapay zekâ ile konuştuklarını bildirmek zorunda
Derin sahte (deepfake) içerikler “yapay olarak üretilmiştir” etiketi taşıyacak
Duygu tanıma sistemleri kullanıcıyı bilgilendirecek
Yapay zekâ ile üretilmiş metin, görsel, ses ve video içerikler etiketlenecek
Avrupa Komisyonu, Aralık 2025’te yapay zekâ ile üretilmiş içeriklerin filonumarası (watermark) ile işaretlenmesine ilişkin ilk taslak kodu yayımladı. Nihai kodun Haziran 2026’da tamamlanması bekleniyor.
CHATGPT GİBİ MODELLERE ÖZEL KURALLAR
Yasa, genel amaçlı yapay zekâ modellerini (GPAI) – ChatGPT, Gemini gibi büyük dil modelleri – ayrı bir başlık altında düzenliyor. 2 Ağustos 2025 itibarıyla bu modellerin geliştiricileri:
Avrupa Yapay Zekâ Ofisi’ne teknik dokümantasyon sunmak
Eğitim verilerinin içeriğine dair özet hazırlamak
AB telif hukukuna uyum politikaları oluşturmak
Alt kullanıcılarla bilgi paylaşmak zorunda. Sistemik risk taşıyan modeller (örneğin 10²⁵ FLOP hesaplama gücünü aşanlar) için ek yükümlülükler getiriliyor.
DİJİTAL OMNİBUS İLE ERTELEME TARTIŞILIYOR
19 Kasım 2025’te Avrupa Komisyonu, Dijital Omnibus paketini açıkladı. Bu paket, yapay zekâ yasasında bazı uyum tarihlerinin ertelenmesini ve KOBİ’ler için yükümlülüklerin hafifletilmesini öngörüyor.
Komisyonun önerisiyle:
Yüksek riskli sistemler için uyum tarihi 2 Ağustos 2026’dan 2 Aralık 2027’ye erteleniyor
Yapay zekâ okuryazarlığı zorunluluğu “teşvik edilir” seviyesine indiriliyor
KOBİ ceza indirimi 750 çalışana ve 150 milyon Euro cirolu firmalara kadar genişletiliyor
Ancak bu değişiklikler henüz kesinleşmedi. Üçlü diyalog (trilogue) görüşmelerinin Nisan-Mayıs 2026’da tamamlanması bekleniyor. Yasa değişikliği resmileşene kadar mevcut tarihler (2 Ağustos 2026) geçerliliğini koruyor.
CEZALAR VE DENETİM
Yasanın denetiminden Avrupa Yapay Zekâ Ofisi (genel amaçlı modeller) ve ülkelerin ulusal yetkili makamları sorumlu. Ceza limitleri şöyle:
Yasaklı uygulamalar veya veri gerekliliklerine aykırılık €35 milyon veya global cironun %7’si
Diğer yükümlülüklere aykırılık €15 milyon veya global cironun %3’ü
Yanlış veya eksik bilgi verme €7.5 milyon veya global cironun %1.5’i
KOBİ’ler için alt limitler uygulanacak.
YASANIN KAPSAMI DIŞINDA KALANLAR
Yasa her yapay zekâ sistemini kapsamıyor. Kapsam dışında kalan alanlar:
Ulusal savunma ve güvenlik
Bilimsel araştırma ve geliştirme (ticari ürüne dönüşmeyen)
Kişisel kullanım
Açık kaynak modeller
SEKTÖR TEMSİLCİLERİ NE DİYOR?
Teknoloji sektörü temsilcileri, özellikle KOBİ’lerin yükümlülükleri yerine getirmekte zorlanabileceğini belirtiyor. Avrupa Komisyonu’nun Dijital Omnibus ile getirdiği erteleme önerisi, iş dünyasından olumlu karşılanırken, sivil toplum kuruluşları ise ertelemenin vatandaşların haklarını koruma sürecini yavaşlatacağı endişesini taşıyor.
Avrupa Yapay Zekâ Ofisi yetkilileri, yasanın “güvenli ve güvenilir yapay zekânın” gelişimini hızlandıracağını, uzun vadede Avrupa’nın teknoloji ekosistemine rekabet avantajı sağlayacağını vurguluyor.
UYGULAMA TAKVİMİ
Tarih Ne Yürürlüğe Giriyor?
2 Ağustos 2024 Yasa yürürlüğe girdi
2 Şubat 2025 Yasaklı sistemler devre dışı; yapay zekâ okuryazarlığı başladı
2 Ağustos 2025 GPAI modelleri yükümlülükleri başladı; cezalar uygulanabilir
2 Ağustos 2026 Yüksek riskli sistemler (Annex III) ve şeffaflık yükümlülükleri başlıyor
2 Ağustos 2027 Annex I kapsamındaki ürünler (tıbbi cihazlar, otomotiv vb.) için kurallar
Kaynak. DS