21 Nisan 2021'de AB Komisyonu, yapay zekâ ile ilgili ilk yasal düzenleme olarak kabul edilen Yapay Zekâ Yönetmeliği(“Yönetmelik”) önerisi kabul edildi. Komisyon tarafından kabul edilen bu öneri, AB Parlamentosu tarafından onaylanırsa, tüm üye ülkelerde doğrudan yürürlüğe girecek ve pek çok sektör bakımından önemli yükümlülükler getirecektir.
Yapay Zekâ Yönetmeliği, dijital sektörde AB tarafından ele alınan diğer önemli düzenlemeler ile birlikte (Veri Yönetişimi Yasası, Dijital Hizmetler Yasası ve Dijital Piyasalar Yasası vb.) dijital politika reformuna katkı sağlamaktadır. Örneğin, yapay zekâ sistemleri için yasaklanan uygulamalar, İnternet'teki zararlı içerikler konusunda hükümler öngören Dijital Hizmetler Yasası ile doğrudan ilgilidir.
Yönetmelik, "yapay zekâ sistemlerini" geniş bir şekilde tanımlamakta ve yapay zekâ sistemlerinin sağlayıcılarından, üreticilerine, ithalatçılarına, distribütörlerine ve kullanıcılara kadar yapay zekâ zincirinin farklı bölümlerindeki aktörlere özel yükümlülükler getirmektedir. Özellikle yüksek riskli olarak tanımlanan yapay zekâ sistemleri bakımından, birçok katı yükümlülük yine bu Yönetmelik’te öngörülmüştür. Bunların yanı sıra Yönetmelik, AB’de bulunan yapay zekâ sistemlerinin geliştirilmesini ve alımını teşvik etmeyi amaçlayan birçok hükmü de içinde barındırmaktadır.
Yönetmeliğin öngördüğü bir diğer önemli husus ise bir Avrupa Yapay Zekâ Kurulu'nun oluşturularak, yapay zekâ sistemlerinin kullanımını denetlemesi ve koordine etmesi yönünde attığı adımlardır.
Yönetmelik için, kabulünün akabinde iki yıllık bir uygulama dönemi öngörülmüştür. Bu sürenin iki yıl olarak öngörülmesi, esasen yapay zekâ alanında ortaya çıkabilecek yeni ihtiyaçlara yönelik açık bir kapı bırakmaktır.
Yönetmeliğin Kapsamı
Yönetmelik, yapay zekâ sistemlerini "bir veya daha fazla [belirli] yaklaşım ve teknikle geliştirilen ve belirli bir tanımlı hedef kümesi için, etkileşimde bulundukları ortamları etkileyen içerik, tahminler, öneriler veya kararlar gibi çıktılar üretebilen” yazılımlar olarak tanımlamaktadır. Yönetmelik, bu noktada yalnızca bağımsız yazılım ürünleri olarak sunulan yapay zekâ sistemlerini değil, aynı zamanda doğrudan veya dolaylı olarak yapay zekâ hizmetlerine dayanan ürün ve hizmetleri de kapsamına alarak geniş bir ağ oluşturmayı amaçlamaktadır.
Yönetmelik’te tanımlandığı üzere, bir yazılımın yapay zekâ sistemi olarak tanımlanması için aşağıdaki niteliklere sahip olması beklenmektedir:
Üçüncü taraf ülkelerdeki yapay zekâ üreticileri bakımından ise, yabancı tedarikçiler için uygunluk değerlendirme prosedürü yürütüleceği öngörülmüştür. Avrupa’ya tedarik edilecek ürünün, Yönetmelik tarafından gerekli görülen niteliklere sahip olması gerekmektedir. Ek olarak, tedarikçiler, yapay zekâ sistemleri için bir Avrupa Uygunluk (CE) belgesi edinmelidir. Bu belge, yapay zekâ sisteminin gerekli niteliklere haiz olduğunu ve Yönetmelik’te öngörülen yasal çerçeveye uygun olduğunu gösteren bir belge olarak nitelendirilmektedir.
Yapay Zekâ Sistemlerine Getirilen Yasaklar
Yönetmelik’te getirilen diğer bir yenilik, yapay zekâ sistemleri bakımından risk sınıflandırmasının yapılmış olmasıdır. Aşağıdaki tablo, Yönetmelik’te tanımlanan risk sınıflarını ifade etmektedir.
Risk Seviyesi* | Örnekler | Yükümlülükler |
Kabul edilemez risk | Çocukları tehlikeli davranışlara yönlendiren, sesli komut veren oyuncaklar | Kullanımı yasaktır. |
Yüksek Risk | Otonom cihazlar, cezai davalarda delilleri inceleyen sistemler, cerrahi robotlar | Sistemin doğruluğunu ve sağlamlığını sağlamak için, insan gözetiminde ve yalnızca amaçla ilintili temsili nitelikte veri ile kullanılmalıdır. |
Düşük Risk | Chatbot kullanımı | Karşı tarafa yapay zekâ sistemi ile etkileşime girdiğine dair bilgilendirme yapılmalıdır. |
Minimal Risk | Öneri ve tavsiyelerde bulunan yapay zekâ sistemleri | Yükümlülük öngörülmemiştir. |
*Risk seviyeleri kırmızıdan yeşile olacak şekilde yüksek seviyeden düşük seviyeye doğru sıralanmıştır.
Yönetmelik, tüm yapay zekâ sistemleri için AB değerlerini ve kişilerin temel hak ve özgürlüklerini ihlal eden her türlü uygulamayı yasaklamaktadır. Yasaklı yapay zekâ sistemleri örneklendirilecek olursa, Yönetmelik aşağıda belirtilen hizmetleri sunan sistem ve ürünlerin kullanımını yasaklamaktadır.
Yüksek Riskli Yapay Zekâ Sistemleri Sağlayıcıları ve Kullanıcıları için Öngörülen Yükümlülükler
Yönetmelik ile getirilen en önemli yükümlülük, yapay zekâ sistemlerinin kullanılırken mutlaka bir risk yönetimi sistemi ile beraber kullanımının sağlanmasıdır. Geliştirilecek risk yönetim sisteminin, riskleri ortadan kaldırması veya azaltması, teknik tedbirler uygulaması, bilgi sağlaması ve mevcut uygulamayı test edebilmesi gerekmektedir.
Bunların yanı sıra Yönetmelik, yüksek riskli yapay zekâ sistemlerinin yanı sıra aşağıdakilerle ilgili de kapsamlı yükümlülükler getirmektedir:
Şeffaflığa İlişkin Yükümlülükler
Bazı yapay zekâ sistemleri, ek şeffaflık yükümlülüklerine tabi olacak şekilde konumlandırılmıştır. Bunlar arasında gerçek kişilerle etkileşime girmeyi amaçlayan yapay zekâ sistemleri, duygu tanımlama veya biyometrik kategorizasyon faaliyetleri gerçekleştirebilen yapay zekâ sistemleri, deep fake sistemleri yer almaktadır.
İnovasyonu Destekleme
Yönetmelik yapay zekâ sistemlerinin geliştirilmesi ve kullanımına getirilen kapsamlı yükümlülüklere ek olarak, bu alandaki yenilik ve inovasyonları desteklemeyi amaçlayan bir dizi hüküm içermektedir. Bunlar, yasal korumalı alan programları için desteği, küçük ve orta ölçekli işletmeler ve yeni başlayanlar için düzenleyici yüklerin azaltılmasını ve dijital merkezlerin ve test tesislerinin oluşturulmasını içermektedir.
Yönetim ve Uygulama
Yönetmelik, Yönetmeliğin üye devletler tarafından yeknesak şekilde uygulanmasını sağlamakla görevli ulusal denetim makamlarıyla birlikte çalışan bir Avrupa Yapay Zekâ Kurulu tarafından denetlenen tam teşekküllü bir düzenleme ve yaptırım rejimi oluşturmaktadır.
Son olarak, Yönetmelik ayrıca yüksek riskli yapay sistemleri için bir AB veri tabanı sağlar. Bu veri tabanında yer alan bilgiler, yüksek riskli yapay zekâ sistem sağlayıcıları tarafından girilecek ve halka açık olacaktır. Yüksek riskli yapay sistem sağlayıcılarının ayrıca, yüksek riskli yapay zekâ sistemlerinin performansı ve bunların mevzuata uygunluğuna ilişkin verileri toplamak, belgelemek ve analiz etmek için piyasa sonrası izleme sistemleri kurmaları yönünde hükümler öngörülmüştür.