Yapay zeka endüstrisi şeffaflık ve güvenlik üzerine odaklandıkça, “açıklık” ın gerçek anlamı hakkındaki tartışmalar yoğunlaşıyor. Açık kaynaklı güvenlik firmasından uzmanlar Endor Labs Bu acil konulara ağırlık vermiştir.
Endor Labs kıdemli ürün pazarlama müdürü Andrew Stiefel, yazılım güvenliğinden öğrenilen derslerin AI sistemlerine uygulanmasının önemini vurguladı.
“ABD hükümetinin 2021 yürütme emri Amerika’nın Siber Güvenliğini Geliştirme federal devlet kurumlarına satılan her ürün için kuruluşların bir yazılım malzeme faturası (SBOM) üretmesini gerektiren bir hüküm içermektedir. ”
Bir SBOM aslında bir ürün içindeki açık kaynaklı bileşenleri detaylandıran ve güvenlik açıklarını tespit etmeye yardımcı olan bir envanterdir. Stiefel, “aynı prensiplerin AI sistemlerine uygulanmasının mantıklı bir sonraki adım olduğunu” savundu.
“Vatandaşlar ve devlet çalışanları için daha iyi şeffaflık sağlamak sadece güvenliği artırmakla kalmaz” diye açıkladı, “aynı zamanda bir modelin veri kümelerine, eğitimine, ağırlıklarına ve diğer bileşenlerine de görünürlük kazandırıyor.”
İçindekiler
Bir AI modelinin “açık” olması ne anlama geliyor?
Endor Labs kıdemli ürün müdürü Julien Sobrier, AI şeffaflığı ve “açıklık” hakkında devam eden tartışmalara önemli bağlam ekledi. Sobrier, AI sistemlerini gerçekten açık olarak sınıflandırmanın doğasında var olan karmaşıklığı bozdu.
“Birçok bileşenden bir AI modeli yapılmıştır: eğitim seti, ağırlıklar ve modeli eğitmek ve test etmek için programlar vb. Şimdilik geniş bir tanım. ”
Sobrier, bu terim hakkında karışıklığa yol açan büyük oyuncular arasında tutarlılık eksikliğine dikkat çekti.
“Ana oyuncular arasında, ‘açık’ tanımıyla ilgili endişeler Openai ile başladı ve Meta, ‘daha açık’ olsa bile Lama modelleri için haberlerde. Açık bir modelin ne anlama geldiğine dair ortak bir anlayışa ihtiyacımız var. Free vs açık kaynaklı yazılımla gördüğümüz gibi herhangi bir ‘açık yıkama’ için dikkat etmek istiyoruz. ”
Sobrier vurgulanan potansiyel bir tuzak, kuruluşların kısıtlamalar getirirken şeffaflık talep ettiği giderek daha yaygın “açık yıkama” uygulamasıdır.
“Bulut sağlayıcılarının açık kaynaklı projelerin (veritabanları gibi) ücretli bir sürümünü geri getirmeden sunarak, birçok açık kaynaklı projede bir değişiklik gördük: kaynak kodu hala açık, ancak birçok ticari kısıtlama eklediler.”
Sobrier, “Meta ve diğer ‘açık’ LLM sağlayıcıları rekabet avantajlarını korumak için bu yola gidebilir: modeller hakkında daha fazla açıklık, ancak rakiplerin bunları kullanmasını engelleme” dedi.
Deepseek, AI şeffaflığını artırmayı hedefliyor
AI endüstrisindeki yükselen-tartışmalı da olsa-Deepseek, modellerinin ve kodlarının açık kaynaklı bir bölümünü yaparak bu endişelerin bazılarını ele almak için adımlar attı. Güvenlik bilgileri sağlarken şeffaflığı ilerlettiği için bu hareket övüldü.
“Deepseek, modelleri ve ağırlıklarını açık kaynak olarak yayınladı,” dedi Andrew Stiefel. “Bu bir sonraki hareket, barındırılan hizmetlerine daha fazla şeffaflık sağlayacak ve bu modelleri üretimde nasıl ince ayar yaptıkları ve çalıştırdıkları konusunda görünürlük sağlayacak.”
Stiefel, bu şeffaflığın önemli faydaları olduğunu belirtti. “Bu, topluluğun sistemlerini güvenlik riskleri için denetlemesini ve ayrıca bireylerin ve kuruluşların kendi Deepseek versiyonlarını üretmelerini kolaylaştıracak.”
Güvenlik ötesinde, Deepseek ayrıca AI altyapısının ölçekte nasıl yönetileceği konusunda bir yol haritası sunmaktadır.
“Şeffaflık tarafından, Deepseek’in barındırılan hizmetlerini nasıl yürüttüğünü göreceğiz. Bu, keşfedildikten sonra ortaya çıkan güvenlik endişelerini ele almaya yardımcı olacaktır.
Stiefel, Deepseek’in Docker, Kubernetes (K8S) ve diğer altyapı (IAC) konfigürasyonları gibi araçlarla uygulamalarının, yeni ev sahipleri ve hobilere benzer barındırılan örnekler oluşturmaları için güçlendirebileceğini vurguladı.
Açık kaynaklı AI şu anda sıcak
Deepseek’in şeffaflık girişimleri, açık kaynaklı AI’ya yönelik daha geniş eğilimle uyumludur. IDC’nin bir raporu, kuruluşların% 60’ının üretken AI (GENAI) projeleri için ticari alternatifler üzerinde açık kaynaklı AI modellerini tercih ettiğini ortaya koyuyor.
Endor Labs araştırması ayrıca kuruluşların uygulama başına ortalama yedi ve yirmi bir açık kaynak modelini kullandıklarını göstermektedir. Akıl yürütme açıktır: belirli görevler için en iyi modeli kullanmak ve API maliyetlerini kontrol etmek.
Stiefel, “7 Şubat itibariyle Endor Labs, orijinal Deepseek R1 modelinden 3.500’den fazla ek modelin eğitildiğini veya damıtıldığını buldu” dedi. “Bu, hem açık kaynaklı AI model topluluğundaki enerjiyi hem de güvenlik ekiplerinin neden bir modelin soyunu hem de potansiyel risklerini anlamaları gerektiğini gösteriyor.”
Sobrier için, açık kaynaklı AI modellerinin artan benimsenmesi, bağımlılıklarını değerlendirme ihtiyacını güçlendirir.
“AI modellerine yazılımımızın bağlı olduğu önemli bağımlılıklar olarak bakmamız gerekiyor. Şirketlerin yasal olarak bu modelleri kullanmalarına izin verilmeleri gerektiğinden, aynı zamanda açık kaynaklı kütüphaneler gibi operasyonel riskler ve tedarik zinciri riskleri açısından kullanımı güvenli olduklarından emin olmalıdır. ”
Herhangi bir riskin eğitim verilerine yayılabileceğini vurguladı: “LLM’yi eğitmek için kullanılan veri kümelerinin zehirlenmediğinden veya hassas özel bilgilere sahip olduğundan emin olmaları gerekiyor.”
AI modeli riskine sistematik bir yaklaşım oluşturmak
Açık kaynaklı yapay zeka benimsemesi hızlandıkça, riski yönetmek her zamankinden daha kritik hale gelir. Stiefel, üç temel adımın ortalanmış sistematik bir yaklaşımını özetledi:
- Keşif: Kuruluşunuzun şu anda kullandığı AI modellerini algılayın.
- Değerlendirme: Güvenlik ve operasyonel kaygılar da dahil olmak üzere potansiyel riskler için bu modelleri gözden geçirin.
- Cevap: Güvenli ve güvenli modelin benimsenmesini sağlamak için korkulukları ayarlayın ve uygulayın.
Stiefel, “Anahtar, inovasyonu mümkün kılmak ve riski yönetme arasında doğru dengeyi bulmak” dedi. “Yazılım mühendisliği ekiplerine denemek için enlem vermeliyiz, ancak bunu tam görünürlükle yapmalıyız. Güvenlik ekibinin görüş hattı ve harekete geçmesi gerekiyor. ”
Sobrier ayrıca, topluluğun AI modellerini güvenli bir şekilde inşa etmek ve benimsemek için en iyi uygulamaları geliştirmesi gerektiğini savundu. Güvenlik, kalite, operasyonel riskler ve açıklık gibi parametreler arasında AI modellerini değerlendirmek için paylaşılan bir metodolojiye ihtiyaç vardır.
Şeffaflığın Ötesinde: Sorumlu AI geleceği için önlemler
Yapay zekanın sorumlu büyümesini sağlamak için endüstri, birkaç vektör arasında çalışan kontrolleri benimsemelidir:
- SaaS modelleri: Çalışanların barındırılan modellerin kullanımını korumak.
- API Entegrasyonları: Deepseek gibi üçüncü taraf API’leri uygulamalara yerleştiren geliştiriciler, Openai Entegrasyonları gibi araçlar aracılığıyla, dağıtımı sadece iki kod ile değiştirebilen uygulamalara.
- Açık kaynaklı modeller: Geliştiriciler, topluluk yapımı modellerden yararlanıyor veya Deepseek gibi şirketler tarafından korunan mevcut vakıflardan kendi modellerini oluşturuyorlar.
Sobrier, hızlı AI ilerlemesi karşısında gönül rahatlığı konusunda uyardı. “Topluluğun güvenli ve açık AI modelleri geliştirmek için en iyi uygulamalar oluşturması gerekiyor,” diye tavsiyede bulundu ve “onları güvenlik, kalite, operasyonel riskler ve açıklık boyunca değerlendirecek bir metodoloji.”
Stiefel’in özlü bir şekilde özetlendiği gibi: “Birden fazla vektörde güvenliği düşünün ve her biri için uygun kontrolleri uygulayın.”
Ayrıca bakınız: 2025’te AI: Amaç odaklı modeller, insan entegrasyonu ve daha fazlası

Endüstri liderlerinden yapay zeka ve büyük veriler hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak AI ve Big Data Fuarı Amsterdam, California ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, diğer önde gelen etkinliklerle birlikte toplanır. Akıllı Otomasyon Konferansı– Blockx– Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
Techforge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.