Araştırmacılar Tokyo Bilim Üniversitesi (TUS), büyük ölçekli yapay zeka modellerinin belirli veri sınıflarını seçici olarak “unutmasına” olanak tanıyan bir yöntem geliştirdi.
Yapay zekadaki ilerleme, sağlık hizmetlerinden otonom sürüşe kadar çeşitli alanlarda devrim yaratabilecek araçlar sağladı. Ancak teknoloji ilerledikçe karmaşıklıklar ve etik hususlar da gelişiyor.
OpenAI’nin ChatGPT’si gibi büyük ölçekli önceden eğitilmiş yapay zeka sistemlerinin paradigması ve KLİP (Karşılaştırmalı Dil-Görüntü Ön Eğitimi), makinelere yönelik beklentileri yeniden şekillendirdi. Çok çeşitli görevleri tutarlı bir hassasiyetle yerine getirebilen bu son derece genelci modeller, hem profesyonel hem de kişisel kullanım için yaygın bir şekilde benimsenmiştir.
Ancak bu kadar çok yönlülüğün ağır bir bedeli var. Bu modellerin eğitimi ve çalıştırılması, muazzam miktarda enerji ve zaman gerektirir; bu da sürdürülebilirlik endişelerini artırır ve ayrıca standart bilgisayarlardan önemli ölçüde daha pahalı son teknoloji donanım gerektirir. Bu sorunları daha da artıran şey, genel eğilimlerin belirli görevlere uygulandığında yapay zeka modellerinin verimliliğini engelleyebilmesidir.
Araştırmayı yöneten Doçent Go Irie, örneğin “pratik uygulamalarda her türlü nesne sınıfının sınıflandırılmasına nadiren ihtiyaç duyulur” diye açıklıyor. “Örneğin otonom bir sürüş sisteminde arabalar, yayalar ve trafik işaretleri gibi sınırlı nesne sınıflarını tanımak yeterli olacaktır.
“Yiyecekleri, mobilyaları veya hayvan türlerini tanımamıza gerek kalmayacak. Tanınması gerekmeyen sınıfların tutulması, genel sınıflandırma doğruluğunu azaltabileceği gibi, hesaplama kaynaklarının israfı ve bilgi sızıntısı riski gibi operasyonel dezavantajlara da neden olabilir.”
Potansiyel bir çözüm, gereksiz veya gereksiz bilgileri “unutmak” için modellerin eğitilmesinde ve süreçlerin yalnızca gerekli olana odaklanacak şekilde düzenlenmesinde yatmaktadır. Mevcut bazı yöntemler halihazırda bu ihtiyacı karşılarken, kullanıcıların bir modelin iç mimarisine ve parametrelerine erişebildiği bir “beyaz kutu” yaklaşımını varsayma eğilimindedirler. Ancak çoğu zaman kullanıcılar böyle bir görünürlük elde edemez.
Ticari ve etik kısıtlamalar nedeniyle daha yaygın olan “kara kutu” yapay zeka sistemleri, iç mekanizmalarını gizleyerek geleneksel unutma tekniklerini kullanışsız hale getiriyor. Bu boşluğu gidermek için araştırma ekibi, bir modelin erişilemez iç işleyişine güvenmekten kaçınan bir yaklaşım olan türevsiz optimizasyona yöneldi.
Unutarak ilerlemek
2024 yılında Sinir Bilgi İşleme Sistemleri (NeurIPS) konferansında sunulması planlanan çalışma, “kara kutu unutma” adı verilen bir metodolojiyi tanıtıyor.
Süreç, yapay zekanın belirli sınıfları aşamalı olarak “unutmasını” sağlamak için giriş istemlerini (modellere beslenen metin talimatları) yinelenen turlarda değiştirir. Doçent Irie, çalışma üzerinde ortak yazarlar Yusuke Kuwana ve Yuta Goto (her ikisi de TUS’tan) ve Dr. Takashi Shibata ile işbirliği yaptı. NEC Şirketi.
Deneyleri için araştırmacılar, görüntü sınıflandırma yeteneklerine sahip bir görme dili modeli olan CLIP’i hedef aldılar. Geliştirdikleri yöntem, çözümleri adım adım optimize etmek için tasarlanmış evrimsel bir algoritma olan Kovaryans Matrisi Adaptasyon Evrim Stratejisi (CMA-ES) üzerine inşa edilmiştir. Bu çalışmada CMA-ES, CLIP’e sağlanan istemleri değerlendirmek ve geliştirmek için kullanıldı; sonuçta belirli görüntü kategorilerini sınıflandırma yeteneği bastırıldı.
Proje ilerledikçe zorluklar ortaya çıktı. Mevcut optimizasyon teknikleri, daha büyük hacimli hedeflenen kategoriler için ölçek büyütme konusunda zorluk yaşadı ve bu durum, ekibin “gizli içerik paylaşımı” olarak bilinen yeni bir parametrelendirme stratejisi tasarlamasına yol açtı.
Bu yaklaşım, istemler tarafından oluşturulan bilgilerin temsili olan gizli bağlamı daha küçük, daha yönetilebilir parçalara ayırır. Belirli öğeleri tek bir simgeye (kelime veya karakter) tahsis ederken diğerlerini birden çok simgede yeniden kullanarak, sorunun karmaşıklığını önemli ölçüde azalttılar. En önemlisi, bu, süreci kapsamlı unutma uygulamaları için bile hesaplama açısından takip edilebilir hale getirdi.
Çoklu görüntü sınıflandırma veri kümeleri üzerinde kıyaslama testleri aracılığıyla araştırmacılar, kara kutu unutmanın etkinliğini doğruladılar; böylece CLIP’in, yapay zeka modelinin iç mimarisine doğrudan erişim olmaksızın hedef sınıfların yaklaşık %40’ını “unutmasını” sağlama hedefine ulaşıldı.
Bu araştırma, kara kutu görme-dil modelinde seçici unutmayı teşvik etmeye yönelik ilk başarılı girişimi işaret ediyor ve ümit verici sonuçlar veriyor.
Yapay zeka modellerinin verileri unutmasına yardımcı olmanın faydaları
Teknik yaratıcılığın ötesinde bu yenilik, göreve özgü hassasiyetin çok önemli olduğu gerçek dünya uygulamaları için önemli bir potansiyel barındırıyor.
Özel görevlere yönelik modelleri basitleştirmek, onları daha hızlı, kaynak açısından daha verimli hale getirebilir ve daha az güçlü cihazlarda çalışabilir hale getirebilir; bu da daha önce mümkün olmadığı düşünülen alanlarda yapay zekanın benimsenmesini hızlandırabilir.
Bir diğer önemli kullanım alanı ise görsel bağlam kategorilerinin tamamının unutulmasının, modellerin yanlışlıkla istenmeyen veya zararlı içerik (saldırgan materyal veya yanlış bilgi) oluşturmasını engelleyebileceği görüntü oluşturmada yatmaktadır.
Belki de en önemlisi, bu yöntem yapay zekanın en büyük etik ikilemlerinden birini ele alıyor: gizlilik.
Yapay zeka modelleri, özellikle de büyük ölçekli olanlar, genellikle yanlışlıkla hassas veya güncelliğini kaybetmiş bilgiler içerebilecek büyük veri kümeleri üzerinde eğitilir. Bu tür verilerin kaldırılmasına yönelik talepler, özellikle de “Unutulma Hakkını” savunan yasalar ışığında, önemli zorluklar doğurmaktadır.
Sorunlu verileri hariç tutmak için tüm modellerin yeniden eğitilmesi maliyetli ve zaman alıcıdır, ancak bunun ele alınmadan bırakılmasının riskleri geniş kapsamlı sonuçlara yol açabilir.
Doçent Irie, “Büyük ölçekli bir modeli yeniden eğitmek çok büyük miktarda enerji tüketiyor” diyor. “‘Seçici unutma’ veya makine öğrenimi olarak adlandırılan öğrenme, bu soruna etkili bir çözüm sağlayabilir.”
Bu gizlilik odaklı uygulamalar, özellikle hassas verilerin operasyonların merkezinde yer aldığı sağlık ve finans gibi yüksek riskli sektörlerle ilgilidir.
Yapay zekayı geliştirmeye yönelik küresel yarış hızlandıkça, Tokyo Bilim Üniversitesi’nin kara kutuyu unutma yaklaşımı, yalnızca teknolojiyi daha uyarlanabilir ve verimli hale getirmekle kalmayıp, aynı zamanda kullanıcılar için önemli güvenlik önlemleri ekleyerek ileriye yönelik önemli bir yol çiziyor.
Kötüye kullanım potansiyeli devam etse de seçici unutma gibi yöntemler, araştırmacıların hem etik hem de pratik zorlukları proaktif bir şekilde ele aldıklarını göstermektedir.
Ayrıca bakınız: Neden QwQ-32B-Preview izlenmesi gereken yapay zekadır?
Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: Akıllı Otomasyon Konferansı, BlockX, Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
TechForge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.