Draqon
Aktif Üye
Biyometrik gözetim ve Co.: AB komiteleri kapsamlı yapay zeka kuralları üzerinde anlaştı
Yalnızca Perşembe günü uzun bir arayla kesintiye uğrayan toplam 36 saatlik “ultra maraton”un ardından, AB Parlamentosu, Bakanlar Konseyi ve Brüksel’deki Komisyon müzakerecileri, planlanan AB düzenleme Sistemleri üzerinde uzlaşmaya vardı. yapay zeka (AI) ile iletişim kurun.
Reklamcılık
Son zamanlarda özellikle tartışmalı bir nokta, AB Parlamentosu tarafından, örneğin kolluk kuvvetleri gibi alanlarda otomatik yüz tanıma yoluyla biyometrik toplu gözetlemenin yasaklanması çağrısında bulunuldu. Üye ülkeler ise bunu baştan itibaren uygulamak istediler ve milletvekillerine tutumlarını değiştirmeleri için yoğun baskı uyguladılar.
Gözetim sorunu
Biyometrik gözetim konusundaki anlaşmazlık Perşembe günü bir anlaşmaya varılmasını engelledi. Avrupa Dijital Hakları (EDRi) ve AlgorithmWatch gibi çok sayıda sivil toplum kuruluşu, kışkırtıcı bir mektupta, hükümet temsilcilerinin “ulusal güvenlik ve sanayinin çıkarlarını insanların haklarının korunmasının üstünde tutmak için” parlamentoya kelebek vidalar taktıklarını söyledi.
Öte yandan Cuma günü düzenlenen federal ve eyalet içişleri bakanları konferansında, yapay zeka düzenlemesinin parlamento versiyonunda yasalaşması durumunda “bunun güvenlik yetkililerinin görevlerini yerine getirme becerisinde ciddi kısıtlamalara yol açacağı ve Kamu güvenliği açısından riskler var.” Nihai müzakereler sırasında Konsey, biyometrik yüz tanımanın gerçek zamanlı kullanımının ve ırksal profil oluşturmanın ciddi suçlar için mümkün kılınması gerektiğini savundu.
Üzerinde mutabakata varılan metne göre, siyasi, dini, felsefi inançlar, cinsel yönelim veya etnik köken gibi hassas özellikleri kullanan biyometrik sınıflandırma sistemleri temelden yasaklanmalıdır. Bununla birlikte, müzakereciler aynı zamanda biyometrik tanımlama sistemlerinin kamusal alanlarda kolluk kuvvetleri amacıyla yargı onayıyla ve sabit bir suç kataloğu için kullanılmasına ilişkin bir dizi dar istisna üzerinde de anlaştılar.
Kovuşturmaya ilişkin istisnalar
Hamburg polisinin G20 zirvesinden sonra tartışmalı bir operasyonla gerçekleştirdiği, şiddet içeren suçluların yüz tanıma kullanılarak otomatik olarak aranmasına, özellikle ciddi suçlarla mücadelede izin verilmelidir. Parlamentoya göre, kaçırma, insan kaçakçılığı ve cinsel istismar mağdurlarının özel olarak aranması veya “somut ve güncel bir terör tehdidinin” önlenmesi amacıyla “sınırlı bir zaman ve yerde” gerçek zamanlı kimlik tespiti de mümkün olmalıdır. Bahsedilen bir diğer amaç ise terör, cinayet, tecavüz, silahlı soygun, suç örgütüne katılım veya çevre suçu gibi ciddi suçlarla suçlanan şüphelilerin aranmasıdır.
İkinci önemli çekişme noktası ise ChatGPT’nin arkasındaki GPT, Gemini, LaMDA veya LLaMA gibi, kapsamlı bir veri tabanı üzerinde eğitilen ve çok çeşitli farklı görevlere uyarlanabilen temel modellerin düzenlenmesiydi. Anlaşmaya göre, önde gelen yapay zeka oyuncuları, bağımsız uzmanların katılımıyla sağlık, güvenlik, temel haklar, çevre, demokrasi ve hukukun üstünlüğüne yönelik olası riskleri incelemeli ve gerekirse azaltmalıdır.
Riskli uygulamalar için katı kurallar
Sistemik risk içeren, “son derece etkili” ve yaygın olarak uygulanabilir yapay zeka modelleri için Parlamento’nun müzakerecileri özellikle katı yükümlülükleri yerine getirmeyi başardılar. Ayrıca, diğer şeylerin yanı sıra, düşman saldırılarına karşı testler yapmaları, ciddi olayları Komisyona bildirmeleri ve enerji verimlilikleri hakkında rapor vermeleri gerekiyor. Komisyon, etkilenen sistemlerin ilgili bir listesini hazırlamalıdır.
Anlaşmaya göre, sistemik olmayan, önceden eğitilmiş yapay zeka modellerinin sağlayıcıları, bunları “modele erişim, kullanım, değişiklik ve dağıtıma olanak tanıyan bir lisans kapsamında kamuya açık” hale getirmeleri halinde ek gereksinimlerden kaçınabilecek. Kullanılan parametrelerin de kamuya açık olması gerekir.
Kamuya açık etkileyici faktörlere sahip açık kaynak modelleri de, yüksek riskli veya yasaklı teknolojiler kategorisine girmedikleri veya belirli bir manipülasyon riskiyle ilişkilendirilmedikleri sürece hariç tutulmuştur. Avukatlar muhtemelen bunun Meta’daki LLaMA için geçerli olup olmadığı konusunda hala tartışıyorlar.
Modeli eğitmek için kullanılan bilgi işlem gücü, diğer şeylerin yanı sıra niceliksel bir eşik olarak da kullanılabilir. Yasal metne eklenen yeni bir ek, planlanan Avrupa Yapay Zeka Ofisinin kriterleri bilimsel bir değerlendirme temelinde geliştirmesi gerektiğini şart koşuyor. Bu aynı zamanda iş kullanıcılarının sayısına ve ilgili parametrelere de bağlı olacaktır.
Eğitim Verilerinin Açıklanması
Büyük AI temel modellerinin operatörlerinin, ticari sırlar hariç, kamuya açık olarak kullanılan eğitim verilerinin bir özetini hazırlaması gerekecektir. Bunun amacı, uzmanların kaynakların doğruluğunu, olası çarpıklıkları ve bunlarla mücadele etmek için atılan adımları değerlendirmelerine yardımcı olmaktır.
Parlamento, özellikle orta ölçekli şirketlerin, değer zincirini kontrol eden endüstri devlerinin aşırı baskısı olmadan yapay zeka çözümleri geliştirebilmelerini istedi. Bu amaçla anlaşma, düzenleyici sanal alanlar olarak adlandırılan, ulusal otoriteler tarafından piyasaya sürülmeden önce yenilikçi yapay zeka geliştirmek ve eğitmek için kurulan test ortamları olarak teşvik ediyor.
Endüstri davranış kuralları, uyumlaştırılmış standartlar mevcut olana kadar yalnızca geçici önlemler olarak kabul edilmelidir. Komisyon, anlaşmaların çok uzun sürmesi durumunda, devredilen tasarruflar olarak adlandırılan işlemlere de müdahale edebilir. Örneğin bu ülkede veri koruma konferansı, Almanya, Fransa ve İtalya’nın savunduğu, temel yapay zeka modelleri için yaptırım içermeyen öz düzenleme kavramına karşı çıktı.
Büyük şirketler ve dernekler, temel modellerin aşırı düzenlenmesine karşı defalarca uyarıda bulundu. Aleph Alpha ve Mistral AI gibi Avrupalı inovasyonların ve startupların risk altında olduğunu gördüler. Son dakikada, Federal BT KOBİ’leri Birliği (BITMi) ve AB şemsiye kuruluşu Avrupa Dijital KOBİ, yapay zeka uygulamalarına ek olarak çok büyük modellerin de düzenlenmesi çağrısında bulundu: Sorumlulukların adil dağılımını sağlamak. Aksi takdirde düzenlemelere uyma yükümlülüğü, küçük ve orta ölçekli şirketler de dahil olmak üzere alt kullanıcılara kaydırılacaktır.
kırmızı Hat
Mutabık kalınan düzenleme risk temelli bir yaklaşım izlemektedir. Amaç yapay zeka için tek tip bir yasal çerçeve oluşturmaktır. Yapay zekayı sosyal puanlama için kullanmak, ayrım gözetmeksizin internetten yüz görüntüleri toplamak, güvenlik açıklarından veya insani zayıflıklardan yararlanmak ve özgür iradeyi manipüle etmek gibi tehlikeli uygulamalar yasaktır. İşyerinde ve eğitim kurumlarında duygu tanıma da yasaktır.
Ayrıca yüksek riskli yapay zeka sistemleri ancak zorunlu gereklilikleri karşılamaları halinde AB pazarına getirilebilecek. Bu durumun ChatGPT veya Bard gibi AI desteğine sahip arama motorları için geçerli olması muhtemeldir. Kullanıcılar prosedürleri anlayabilmeli ve kontrol edebilmelidir. Yüksek riskli yapay zeka sistemlerine belgeler ve bir tür kullanım kılavuzu sağlanmalıdır. İhlale ve şirketin büyüklüğüne bağlı olarak kurallara uymamak, 35 milyon euro veya küresel cironun yüzde 7’si kadar para cezasıyla sonuçlanabiliyor.
AB Komiseri Thierry Breton X’i sabırsızlıkla bekliyordum (eski adıyla Twitter) Cuma akşamı geç saatlerde “tarihi” anlaşma hakkında: “AB, yapay zekanın kullanımına ilişkin net kurallar koyan ilk kıtadır.” “Yapay Zeka Yasası” “bir dizi kuraldan çok daha fazlasıdır; AB’deki startup şirketlerin ve araştırmacıların küresel yapay zeka rekabetine liderlik etmeleri için bir fırlatma rampası niteliğindedir.”
Avrupa Parlamentosu Başkanı Roberta Metsola’ya göre düzenleme, Avrupa’nın mahremiyetin korunması gibi toplumsal değerlere dayalı dijital inovasyonda dünyaya liderlik etme arzusunu temsil ediyor. Gereksinimler şüphesiz önümüzdeki birkaç yıl için küresel standardı belirleyecek.
(vbr)
Haberin Sonu