Küresel olarak önemli’ AI Yasası, AI’dan etkilenenleri tanımalı


Ada Lovelace Enstitüsü bağımsız bir araştırma enstitüsüdür.
Verilerin ve yapay zekanın insanlar için çalışmasını sağlama misyonuyla Birleşik Krallık ve Brüksel
ve toplum.

AI’dan etkilenenleri merkeze alan Ada, yasal hakların korunmasını tavsiye ediyor
şikayet ve toplu eylem için ve sivil topluma ses vermek için
standartlar ayarı içinde.

Ada, Yasa’da riskin rolünün genişletilmesini ve yeniden şekillendirilmesini tavsiye ediyor.
Risk, ‘makul olarak öngörülebilir’ bir amaca dayanmalı ve genişletilmelidir.
bireysel hakların ve güvenliğin ötesinde, sistemik ve
çevresel riskler. *

Ada Lovelace Enstitüsü, bugün bir dizi değişiklik önerisi yayınladı.
AI’dan etkilenenleri tanımayı ve güçlendirmeyi amaçlayan AB AI Yasası,
‘risk’in anlamını genişletmek ve yeniden şekillendirmek ve
AI sistemlerinin doğası ve yaşam döngüleri.

Yapay zekayı düzenlemek için dünyada ilk kapsamlı girişim olan Kanun,
AI düzenlemesinde küresel bir standart olma ve hizmet etme potansiyeli
dünyadaki diğer yasama girişimleri için ilham kaynağı olarak.

Ada, ‘etkilenen kişileri’ yaşam alanına dahil ederek insanları güçlendirmeyi önerir.
Şikayet ve toplu eylem için yasal haklarını harekete geçirin ve kutsallaştırın.
Sivil toplumun sesi de inşa edilerek yükseltilmelidir.
AB’de sivil toplum kuruluşlarının temsili
bugüne kadar teknikten ziyade teknik olarak ele alınması gereken standart belirleme süreci
toplumsal sorunlardan çok

Risk, AI Yasasının temelini oluşturur ve Ada,
Hem riskin Kanunda nasıl belirlendiği hem de risk kategorileri. bu
değişiklikler, yeni AI türleri eklemek için bir süreç oluşturulmasını önermektedir.
‘yüksek risk’ listesi ve ‘makul olarak’ dayalı risk değerlendirmesi
AI sistemlerinin ‘amaçlarından’ ziyade öngörülebilir amacı’.

Biyometrik sınıflandırma ve duygu tanıma eklenmelidir.
5. maddedeki ‘kabul edilemez risk’ listesi.
Ada, bu teknolojilerin faydalarını göstermek için bir sınavdan geçmeleri gerektiğini söylüyor.
‘güçlendirilmiş orantılılık testi’ ve bunu geçerlerse, yalnızca
istisnai durumlar.

Risk, Kanunda öncelikle yapay zeka sistemlerinin riskleri açısından anlaşılır.
bireysel haklar ve güvenlik için. Ancak Ada, Kanunun
basitçe ifade edilemeyecek daha geniş sistemik ve çevresel riskleri içerir.
bireylere yönelik riskler açısından anlaşılır.

Kanunun etkililiğinin temeli, ne ölçüde
kullanılan karmaşık ve uyarlanabilir yapay zeka sistemlerinin doğasını yakalar.
uygulama. Ada’nın tavsiyelerinden bazıları,
Uygun şekilde davranın, AI sistemlerinin nasıl olduğu gerçeğini yansıtır ve bunlarla ilgilidir.
geliştirilmiş, konuşlandırılmış ve uyarlanmıştır.

Örneğin, mevcut teklifler kapsamında, yüksek riskli sistemler yalnızca *ex
ante * gereksinimleri, yani dağıtımdan önce AI sistemlerine uygulanır.
Bu, yapay zekaya yönelik bir ürün güvenliği yaklaşımını yansıtıyor ve bu yaklaşımın nasıl yapıldığını yakalayamıyor.
Dünyada yapay zeka sistemleri kullanılmaktadır. Bu sorunu çözmek için Ada, tüm
yüksek riskli sistemler düzenli *harici* ‘etki değerlendirmelerine’ tabi tutulur.

*Alexandru Circiumaru, Avrupa Kamu Politikası Lideri şunları söyledi: *

*’Yapay zekayı düzenlemek zor bir yasal zorluktur, bu nedenle AB
kapsamlı bir şekilde ortaya çıkan ilk kişi olduğu için tebrikler.
çerçeve.*

*’Ancak, mevcut teklifler geliştirilebilir ve geliştirilmelidir.
AB politika yapıcıları için kapsamı önemli ölçüde güçlendirme fırsatı
ve bu dönüm noktası mevzuatının etkinliği.*

*’Yapay Zekadan etkilenenleri tanıyan Kanunda değişiklikler görmek istiyoruz
sistemleri, AB’nin ‘risk’ kavramını genişletmek ve AI gerçeğiyle ilgilenmek,
geleneksel olarak bir ürün veya hizmet olarak düzenlenemeyen
algı.’*

*Yönetmen Yardımcısı Imogen Parker şunları söyledi: *

*’AB AI Yasası, bir kez kabul edildiğinde, ilk kapsamlı AI olacaktır.
Dünyadaki düzenleyici çerçeve. Bu onu dünya çapında önemli bir
yasal etkisinin çok ötesinde tarihi etkiye sahip bir mevzuat parçası
yargı yetkisi. *

*’Yapay zeka ile herkes için riskler yüksek, bu yüzden
AB bu hakkı alır ve Yasanın gerçekten insanlar için çalışmasını sağlar ve
toplum.’*

Politika brifingi, kuruluş tarafından görevlendirilen uzman bir yasal görüşe dayanmaktadır.
Ada Lovelace Enstitüsü ve önde gelen bir araştırmacı olan Profesör Lilian Edwards tarafından yazılmıştır.
önemli konuları ele alan internet hukuku alanında akademik
Avrupa’daki AI düzenlemesi hakkında sorular ve küresel bir
standart.


Kaynak : https://www.eureporter.co/internet-2/artificial-intelligence/2022/04/01/globally-significant-ai-act-must-recognise-those-affected-by-ai/

Yorum yapın