Antropik AI sistemlerinin potansiyel risklerini işaretledi ve potansiyel felaketlerden kaçınmak için iyi yapılandırılmış düzenleme çağrısında bulundu. Kuruluş, yapay zekanın faydalarından yararlanırken tehlikelerini azaltmak için hedefe yönelik düzenlemelerin gerekli olduğunu savunuyor.
Yapay zeka sistemleri matematik, muhakeme ve kodlama gibi yeteneklerde geliştikçe siber güvenlik, hatta biyolojik ve kimyasal disiplinler gibi alanlardaki potansiyel kötüye kullanımları da önemli ölçüde artıyor.
Anthropic, proaktif önleme penceresi daraldığı için politika yapıcıların harekete geçmesi için önümüzdeki 18 ayın kritik olduğu konusunda uyarıyor. Anthropic’in Frontier Red Ekibi, özellikle mevcut modellerin siber suçlarla ilgili çeşitli görevlere nasıl katkıda bulunabileceğinin altını çiziyor ve gelecekteki modellerin daha da etkili olmasını bekliyor.
Yapay zeka sistemlerinin kimyasal, biyolojik, radyolojik ve nükleer (KBRN) kötüye kullanımı şiddetlendirme potansiyeli özellikle endişe vericidir. Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü kurmak Artık birçok yapay zeka modelinin, bilimle ilgili sorulara yanıt sağlama konusunda doktora düzeyindeki insan uzmanlığıyla eşleşebileceği görülüyor.
Anthropic, bu riskleri ele alırken ayrıntılı bir şekilde açıkladı: Sorumlu Ölçeklendirme Politikası (RSP), Eylül 2023’te sağlam bir karşı önlem olarak piyasaya sürüldü. RSP, yapay zeka yeteneklerinin gelişmişliğine karşılık gelen emniyet ve güvenlik önlemlerinde bir artışı zorunlu kılmaktadır.
RSP çerçevesi, güvenlik protokollerinin zamanında iyileştirilmesine olanak tanıyan yapay zeka modellerinin düzenli değerlendirmeleriyle uyarlanabilir ve yinelenebilir olacak şekilde tasarlanmıştır. Anthropic, özellikle güvenlik, yorumlanabilirlik ve güven sektörlerinde çeşitli ekip genişletmelerini güvenlik kapsamını sürdürmeye ve geliştirmeye kararlı olduğunu ve RSP tarafından belirlenen sıkı güvenlik standartlarına hazır olunduğunu söylüyor.
Anthropic, RSP’lerin yapay zeka endüstrisinde yaygın olarak benimsenmesinin, öncelikle gönüllü olmasına rağmen, yapay zeka risklerinin ele alınması için gerekli olduğuna inanıyor.
Şeffaf ve etkili düzenleme, topluma yapay zeka şirketlerinin güvenlik vaatlerine bağlılığı konusunda güvence vermek için çok önemlidir. Ancak düzenleyici çerçeveler stratejik olmalı ve gereksiz yükler getirmeden sağlam güvenlik uygulamalarını teşvik etmelidir.
Antropik, açık, odaklanmış ve gelişen teknolojik ortamlara uyarlanabilir düzenlemeler öngörmekte ve bunların risk azaltma ile yeniliği teşvik etme arasında bir denge kurmada hayati önem taşıdığını savunmaktadır.
ABD’de Anthropic, federal mevzuatın yapay zeka risk düzenlemesine nihai yanıt olabileceğini öne sürüyor; ancak federal eylem gecikirse eyalet odaklı girişimlerin devreye girmesi gerekebilir. Dünya çapındaki ülkeler tarafından geliştirilen yasal çerçeveler, küresel yapay zeka güvenliği gündemini desteklemek için standardizasyona ve karşılıklı tanınmaya izin vererek farklı bölgeler arasında mevzuata uyum maliyetini en aza indirmelidir.
Ayrıca Anthropic, düzenlemelerin uygulanmasına yönelik şüpheleri ele alıyor ve aşırı geniş kullanım senaryosu odaklı düzenlemelerin, çeşitli uygulamalara sahip genel yapay zeka sistemleri için verimsiz olacağının altını çiziyor. Bunun yerine düzenlemeler, yapay zeka modellerinin temel özelliklerini ve güvenlik önlemlerini hedeflemelidir.
Anthropic, geniş riskleri ele alırken, derin sahtekarlıklar gibi bazı acil tehditlerin mevcut tekliflerinin odak noktası olmadığını, çünkü diğer girişimlerin bu yakın vadeli sorunları ele aldığını kabul ediyor.
Sonuç olarak Anthropic, yeniliği bastırmak yerine teşvik eden düzenlemelerin yapılmasının önemini vurguluyor. Başlangıçtaki uyumluluk yükü, kaçınılmaz olsa da, esnek ve dikkatle tasarlanmış güvenlik testleri aracılığıyla en aza indirilebilir. Doğru düzenleme, fikri mülkiyeti iç ve dış tehditlere karşı güvence altına alarak hem ulusal çıkarların hem de özel sektör yenilikçiliğinin korunmasına bile yardımcı olabilir.
Anthropic, ampirik olarak ölçülen risklere odaklanarak, açık veya kapalı kaynak modellerine karşı önyargılı olmayan veya onları destekleyen bir düzenleyici ortam planlıyor. Hedef hala açık: Sınır yapay zeka modellerinin önemli risklerini sıkı ancak uyarlanabilir düzenlemelerle yönetmek.
(Resim Kredisi: Antropik)
Ayrıca bakınız: Başkan Biden yapay zekaya ilişkin ilk Ulusal Güvenlik Bildirisini yayınladı
Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: Akıllı Otomasyon Konferansı, BlockX, Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
TechForge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.