13 Mart 2024 tarihinde Avrupa Parlamentosu tarafından onaylanan Avrupa Birliği Yapay Zeka Tüzüğü (“AI Act”), yapay zeka sistemlerine getirilen yükümlülükler bakımından kademeli bir yaklaşım benimsemektedir. Bu yaklaşım uyarınca kanunun tam uygulanabilir hale gelmesi 24 ay sürecek olsa da genel amaçlı yapay zeka sistemleri ile ilgili yükümlülükler AI Act yürürlüğe girdikten 12 ay sonra, kabul edilemez risk teşkil eden yapay zeka sistemlerinin kullanımına ilişkin yasak ise AI Act yürürlüğe girdikten 6 ay sonra, yani 2024 yılının sonunda yürürlüğe girecektir.
Yasaklı yapay zeka sistemlerinin kullanımdan kaldırılmamaları durumunda şirketlere€35,000,000 veya şirketin küresel cironun %7,5’i arasından yüksek olan üzerinden cezai işlem uygulanacaktır.
AI Act, yapay zeka sistemlerini tanımlamakta, risklerine göre kategorize etmekte, kapsamlı gereksinimler ile gerekli koruma mekanizmaları ortaya koymakta ve onlara yönelik şeffaflık yükümlülükleri getirmektedir.
Hem Avrupa Birliği (“AB”) içindeki hem de dışındaki çoğu kuruluş, AI Act kapsamında yapay zeka olarak nitelendirilebilecek yapay zeka sistemleri geliştirmekte veya kullanmaktadır. Kısa uygulama süresi göz önüne alındığında kuruluşlar, geliştirdikleri veya kullandıkları yapay zeka sistemlerini ve AI Act’in getirdiği yükümlülüklere uymak için atmaları gereken adımları derinlemesine anlamalıdır.
Yapay zeka sistemleri iş dünyasında verimlilik ve etkinlik açısından büyük bir potansiyel sunmakta olsa da kullanımları gizlilik, güvenlik, etik ve hukuki yükümlülükler ile uyumlu hareket edilmesi gibi konularda çeşitli riskleri de beraberinde getirmektedir. Şirketlerin şimdiden bu risklere karşı bazı temel adımlar atmaları mümkündür:
Şirketlerin yapay zeka kullanımı ile ilişkili riskleri değerlendirmek için kullanılmakta olan yapay zeka sistemlerinin bir envanterine ihtiyaç vardır. Bu kapsamda; uygulama ile bütünleşmiş yapay zeka sistemleri olan uygulamalar, güncelleme sonucu yapay zeka entegre edilmiş sistemler ve servis olarak yazılım (SaaS) uygulamaları da dahil olmak üzere kullanılan tüm yapay zeka sistemlerinin bir envanteri çıkarılmalıdır. Bu yapay zeka sistemleri envanteri, yapay zeka ile ilgili risklerin değerlendirilmesine olanak sağlayacaktır.
Yapay zeka sistemleri envanterinde tanımlanan yapay zeka sistemleri ve kullanımlarının, AI Act içerisinde tanımlanan risk kategorileri doğrultusunda sınıflandırması gerekmektedir Belirlenen riskleri azaltmak için uyuma yönelik harekete geçilmesi ve oluşabilecek riskleri yönetmek için uygun kontrollerin mevcut olduğundan emin olunması gerekmektedir
Belirlenen riskleri azaltmak için uyuma yönelik harekete geçilmesi ve oluşabilecek riskleri yönetmek için uygun kontrollerin mevcut olduğundan emin olunması gerekmektedir.
AI Act doğrultusunda, uygun yapay zeka yönetişimi ve yapay zeka sistemleri risk yönetimi uygulanmalıdır. Yapay zeka yönetişimi, kuruluş genelinde paylaşılan bir sorumluluktur ve mevcut kurumsal yönetim yapılarına uyum sağlayan tanımlanmış bir işletim ortamı gerektirir. Bu, yapay zeka yönetişiminin kuruluşun her alanı tarafından benimsenmesine destek olacaktır.
Yapay zekanın potansiyeli ve sınırlamaları konusunda farkındalık yaratmak, kuruluşunuzun bu avantajlardan yararlanmasını sağlayacak ve aynı zamanda sorumlu kullanım konusunda bilinç oluşturacaktır. Bu nedenle, sorumlu kullanım ve denetimi destekleyecek şekilde eğitim programları ve bilinçlendirme oturumları düzenleyin.