Yapay zekâ (AI) geliştirme sürecinin riskli olmasının nedeni, modern AI araçlarının mevcut yasal çerçeveler altında etik sınırları zorlamasıdır. Bu çerçeveler, AI’a özel olarak tasarlanmamıştır. Ancak düzenleyicilerin bu duruma nasıl tepki verdiği, ülkeden ülkeye ve bölgeden bölgeye büyük farklılıklar göstermektedir.
Paris’te düzenlenen son Yapay Zekâ Eylem Zirvesi, bu düzenleyici farklılıkları gözler önüne serdi. Zirvenin sonuç bildirgesi, AI geliştirmede kapsayıcılık ve açıklık konularına odaklandı. Ancak güvenlik tehditleri ya da varoluşsal tehlikeler gibi AI ile ilgili somut riskler sadece genel olarak anıldı. 60 ülke tarafından kaleme alınan bu bildiriyi ne ABD ne de Birleşik Krallık imzaladı. Bu da bu alanda ne kadar az fikir birliği olduğunu gösteriyor.
Farklı Düzenleyiciler AI Risklerini Nasıl Ele Alıyor?
Ülkeler ve bölgeler, AI’ın geliştirilmesi ve uygulanması konusunda farklı düzenleme yolları benimsemiştir. Ancak çoğu, ABD’nin bir ucunu ve Avrupa Birliği’nin diğer ucunu temsil ettiği iki kutup arasında bir yerde konumlanmaktadır.
ABD Yaklaşımı: Önce Yenilik, Sonra Düzenleme
Amerika Birleşik Devletleri'nde AI’ı özel olarak düzenleyen herhangi bir federal yasa bulunmamaktadır. Bunun yerine gönüllü yönergeler ve piyasa temelli çözümler kullanılmaktadır. Öne çıkan yasal düzenlemeler arasında Federal Yapay Zeka Araştırmalarını koordine etmeyi amaçlayan Ulusal AI Girişimi Yasası, Federal Havacılık İdaresi Yeniden Yetkilendirme Yasası ve Ulusal Standartlar ve Teknoloji Enstitüsü’nün gönüllü risk yönetim çerçevesi yer almaktadır.
Ekim 2023’te Başkan Biden, kritik altyapılar için standartlar belirleyen, AI destekli siber güvenliği geliştiren ve federal projeleri düzenleyen "Güvenli, Emniyetli ve Güvenilir Yapay Zekâ" başlıklı bir kararname yayımladı. Ancak ABD’deki düzenleyici ortam hala değişkendir ve siyasi yön değişikliklerine açıktır. Ocak 2025’te Başkan Trump, Biden’ın kararını iptal etti ve bu, inovasyonu teşvik eden ama düzenlemeyi geri plana iten bir yön değişikliği sinyali verdi.
ABD’nin yaklaşımı “parçalı yapısı”, “uygulanabilir standartların eksikliği” ve “gizlilik korumasında boşluklar” gibi eleştirilere maruz kalıyor. Ancak bu serbest yaklaşımın gelecekte değişebileceği öngörülüyor. Örneğin sadece 2024 yılında, eyalet yasama organları yaklaşık 700 AI yasası sundu ve yönetişimde AI, fikri mülkiyet ve benzeri konularda birçok oturum düzenlendi. Bu da ABD’nin düzenlemeden kaçınmadığını, ancak inovasyondan fazla ödün vermeden nasıl yapılabileceğini araştırdığını gösteriyor.
AB Yaklaşımı: Zararı Önleme Odaklı
Avrupa Birliği, çok farklı bir yol izliyor. Ağustos 2024’te Avrupa Parlamentosu ve Konseyi, bugüne kadarki en kapsamlı AI düzenlemesi olarak görülen Yapay Zekâ Yasası’nı (AI Act) kabul etti. Risk temelli bir yaklaşımı benimseyen yasa, sağlık hizmetleri ve kritik altyapı gibi yüksek hassasiyetli sistemler için en sıkı kuralları öngörürken, düşük riskli uygulamalar için daha gevşek denetimler sunuyor. Devlet destekli sosyal puanlama sistemleri gibi bazı uygulamalar ise tamamen yasaklanmıştır.
GDPR’ye benzer şekilde bu yasa, yalnızca AB sınırları içindeki faaliyetleri değil, AB pazarına AI ürünü sunan tüm üretici, dağıtıcı ve kullanıcıları da kapsar. Bu, ABD ve AB dışı tedarikçiler için bazı zorluklar doğurabilir. Eleştiriler arasında, insan hakları açısından “altın standart” oluşturamaması, fazla karmaşık ve netlikten uzak olması ve AB’nin rekabetçiliği artırmaya çalıştığı bir dönemde teknik olarak çok zorlayıcı olması yer alıyor.
Düzenleyici orta yol
Birleşik Krallık, AB ile ABD arasında “hafif” bir çerçeve benimsemiştir. Bu çerçeve, güvenlik, adalet ve şeffaflık gibi temel ilkelere dayanmaktadır. Bilgi Komiserliği Ofisi gibi mevcut düzenleyici kurumlar, kendi alanlarında bu ilkeleri uygulamakla görevlidir.
Kasım 2023’te Birleşik Krallık, Frontier AI Görev Gücü’nden evrilen AI Güvenlik Enstitüsü’nü (AISI) kurdu. Enstitü, ileri düzey AI modellerinin güvenliğini değerlendirmek, büyük geliştiricilerle güvenlik testleri yapmak ve uluslararası standartları teşvik etmekle sorumludur. Ayrıca hükümet, yapay zekâ temellerine yatırım yapılması, ekonominin tüm alanlarında AI’ın benimsenmesi ve yerli AI sistemlerinin geliştirilmesini içeren bir Yapay Zekâ Fırsatları Eylem Planı yayımladı. Ancak bu yaklaşım da “eller yok, sadece gözler var” şeklinde sınırlı yaptırım gücü, sektörel mevzuatlar arasında koordinasyon eksikliği ve merkezi bir düzenleyici otoritenin bulunmaması gibi eleştirilerle karşılaştı.
Diğer ülkeler de ABD-AB yelpazesinde kendilerine özgü pozisyonlar belirlemişlerdir. Kanada, güvenlik ve etikle inovasyon arasında denge kurmayı amaçlayan Yapay Zekâ ve Veri Yasası (AIDA) taslağını sundu. Japonya, insan merkezli bir yaklaşımı benimsedi ve güvenilir AI geliştirmeyi teşvik eden yönergeler yayımladı.
Çin’de ise AI düzenlemeleri devlet kontrolündedir. Yeni yasalar, üretici AI modellerinin sosyalist değerlerle uyumlu olmasını ve güvenlik değerlendirmelerinden geçmesini şart koşuyor. Avustralya ise bir AI etik çerçevesi yayımlamış ve gizlilik yasalarında gerekli güncellemeleri araştırmaktadır.
Uluslararası iş birliği oluşturmak
AI teknolojisi geliştikçe, düzenleyici yaklaşımlar arasındaki farklılıklar daha da belirginleşecektir. Veri gizliliği, telif hakkı koruması gibi konularda her ülkenin yaklaşımı farklı olsa da, temel AI riskleri hakkında küresel ölçekte daha uyumlu bir fikir birliği oluşması şarttır. Bu nedenle uluslararası iş birliği, temel riskleri ele alırken inovasyonu da teşvik edecek asgari standartları belirlemek açısından büyük önem taşımaktadır.
Şu anda OECD, Birleşmiş Milletler ve bazı diğer uluslararası kuruluşlar, AI için küresel standartlar ve etik yönergeler oluşturmak için çalışmaktadır. Gelecekte ilerleme sağlanması için sektördeki tüm paydaşların ortak bir zemin bulması gerekmektedir. Ve eğer inovasyonun ışık hızında ilerlediğini düşünürsek, tartışma ve uzlaşma zamanı tam da şimdi.