Avrupa Birliği (AB) yasama organları, 72 saatlik tarihi bir tartışmanın ardından Yapay Zeka (AI) Güvenlik Geliştirme Yasası üzerinde anlaşmaya vardı. Bu yasa, eğitim, sağlık ve istihdam dahil olmak üzere çeşitli sektörlerde AI kullanımını düzenlemeyi amaçlayan en kapsamlı yasalardan biri olarak kabul ediliyor.
AI Yasası, toplumsal risklere dayalı olarak AI gelişimini minimal, sınırlı, yüksek ve yasaklanmış olmak üzere dört risk kategorisine ayırıyor. Kullanıcı onayını geçersiz kılan, korunan sosyal grupları hedef alan veya gerçek zamanlı biyometrik takip sağlayan her türlü AI, yasaklanmış kategorisine giriyor.
AB liderliğindeki AI Yasası, dünya genelinde bir öncü olması bekleniyor. Özellikle, veri gizliliğindeki önceki girişimleri olan Genel Veri Koruma Tüzüğü (GDPR) gibi, AB’nin cesur adımları küresel bir standart oluşturabilir.
Yasal düzenlemenin yolculuğu, özellikle Fransa, Almanya ve İtalya’nın Temel Modeller üzerindeki kurallar konusunda tartışmalarıyla zorluklarla karşılaştı. Bu modeller, daha özelleşmiş AI uygulamalarının temelini oluşturuyor. Yeni düzenlemeler, AB içinde rekabetçi jeneratif AI modellerinin gelişimini teşvik ederken katı standartlara uyulmasını hedefliyor.
AI Yasası, OpenAI’nin ChatGPT gibi AI teknolojilerinin ortaya çıkmasıyla ivme kazandı. Yasalar, AB’de faaliyet gösteren teknoloji şirketlerinin, özellikle yüksek riskli uygulamalarda, katı veri açıklama ve ürün testi gerekliliklerine uymalarını gerektirecek.