serbest bırakmak “İlk Taslak Genel Amaçlı Yapay Zeka Uygulama Kuralları”, AB’nin genel amaçlı yapay zeka modelleri için kapsamlı düzenleyici rehberlik oluşturma çabasına işaret etmektedir.
Bu taslağın geliştirilmesi, sanayi, akademi ve sivil toplum dahil olmak üzere çeşitli sektörlerden gelen girdileri içeren ortak bir çabayla gerçekleştirildi. Girişim, her biri yapay zeka yönetişimi ve risk azaltmanın belirli yönlerini ele alan dört uzman Çalışma Grubu tarafından yönetildi:
- Çalışma Grubu 1: Şeffaflık ve telif hakkıyla ilgili kurallar
- Çalışma Grubu 2: Sistemik risk için risk tanımlama ve değerlendirme
- Çalışma Grubu 3: Sistemik risk için teknik riskin azaltılması
- Çalışma Grubu 4: Sistemik risk için yönetişim riskinin azaltılması
Taslak, Avrupa Birliği Temel Haklar Şartı gibi mevcut yasalarla uyumludur. Uluslararası yaklaşımları dikkate alır, risklerle orantılı olmaya çalışır ve hızlı teknolojik değişiklikleri dikkate alarak geleceğe hazır olmayı hedefler.
Taslakta belirtilen temel hedefler şunları içeriyor:
- Genel amaçlı yapay zeka modellerinin sağlayıcıları için uyumluluk yöntemlerinin netleştirilmesi
- Yapay zeka değer zincirinin anlaşılmasını kolaylaştırmak, yapay zeka modellerinin alt ürünlere sorunsuz entegrasyonunu sağlamak
- Özellikle telif hakkıyla korunan materyallerin model eğitimi için kullanımıyla ilgili olarak, telif haklarına ilişkin Birlik hukukuna uygunluğun sağlanması
- Yapay zeka modelleriyle ilişkili sistemik risklerin sürekli değerlendirilmesi ve azaltılması
Sistemik risklerin tanınması ve azaltılması
Taslağın temel özelliği, bu tür risklerin türlerini, doğalarını ve kaynaklarını içeren sistemik risklerin sınıflandırmasıdır. Belgede siber suçlar, biyolojik riskler, otonom yapay zeka modelleri üzerinde kontrol kaybı ve büyük ölçekli dezenformasyon gibi çeşitli tehditler ana hatlarıyla belirtiliyor. Taslak, yapay zeka teknolojisinin sürekli gelişen doğasını kabul ederek, bu sınıflandırmanın güncel kalması için güncellemelere ihtiyaç duyacağını kabul ediyor.
Sistemik risklere sahip yapay zeka modelleri daha yaygın hale geldikçe taslak, sağlam emniyet ve güvenlik çerçevelerine (SSF’ler) duyulan ihtiyacı vurguluyor. Bir modelin yaşam döngüsü boyunca uygun risk tanımlamasını, analizini ve azaltılmasını sağlamak için bir önlemler, alt önlemler ve temel performans göstergeleri (KPI’ler) hiyerarşisi önerir.
Taslak, sağlayıcıların yapay zeka modelleriyle ilişkili ciddi olayları tespit edip raporlamak için süreçler oluşturmasını ve gerektiğinde ayrıntılı değerlendirmeler ve düzeltmeler sunmasını öneriyor. Ayrıca, özellikle önemli sistemik riskler oluşturan modeller için risk değerlendirmesi için bağımsız uzmanlarla işbirliğini de teşvik eder.
Yapay zeka düzenleme rehberliğine proaktif bir duruş sergilemek
1 Ağustos 2024’te yürürlüğe giren AB Yapay Zeka Yasası, bu Kuralların nihai versiyonunun 1 Mayıs 2025’e kadar hazır olmasını zorunlu kılmaktadır. Bu girişim, AB’nin yapay zeka düzenlemesine yönelik proaktif duruşunun altını çizerek yapay zeka güvenliği, şeffaflığı ve şeffaflığı ihtiyacını vurgulamaktadır. sorumluluk.
Taslak gelişmeye devam ettikçe, çalışma grupları paydaşları belgenin iyileştirilmesi sürecine aktif olarak katılmaya davet ediyor. Onların işbirlikçi girdileri, toplumu yapay zeka teknolojisinin potansiyel tehlikelerinden korurken yeniliği korumayı amaçlayan düzenleyici bir çerçeveyi şekillendirecek.
Henüz taslak halinde olmasına rağmen, AB’nin genel amaçlı yapay zeka modellerine yönelik Uygulama Kuralları, küresel olarak sorumlu yapay zeka geliştirme ve dağıtımı için bir referans noktası oluşturabilir. Şeffaflık, risk yönetimi ve telif haklarına uygunluk gibi temel konuları ele alan Kurallar, yenilikçiliği teşvik eden, temel hakları destekleyen ve tüketicinin yüksek düzeyde korunmasını sağlayan bir düzenleyici ortam yaratmayı amaçlamaktadır.
Bu taslak 28 Kasım 2024 tarihine kadar yazılı geri bildirime açıktır.
Ayrıca bakınız: Antropik, felaketleri önlemek için yapay zeka düzenlemesini teşvik ediyor
Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: Akıllı Otomasyon Konferansı, BlockX, Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
TechForge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.