TikTok’un yaratıcısı ByteDance, yakın zamanda yapay zeka modeli eğitimini sabote ettiği iddia edilen bir stajyerin dahil olduğu bir güvenlik ihlali yaşadı. WeChat’te bildirilen olay, şirketin yapay zeka departmanındaki güvenlik protokolleriyle ilgili endişeleri artırdı.
Yanıt olarak, ByteDance’e açıklık getirildi stajyer yapay zekanın ticarileştirilmesi çabalarını sekteye uğratırken hiçbir çevrimiçi operasyonun veya ticari projenin etkilenmediğini söyledi. Şirkete göre 8.000’den fazla GPU kartının etkilendiği ve ihlalin milyonlarca dolar zarara yol açtığı yönündeki söylentiler orantısız bir şekilde yalanlanıyor.
Buradaki asıl sorun, sahtekar bir stajyerin ötesine geçiyor; teknoloji şirketlerinde, özellikle de stajyerlere önemli sorumluluklar verildiğinde, daha sıkı güvenlik önlemlerine duyulan ihtiyacın altını çiziyor. Yüksek basınçlı ortamlardaki küçük hatalar bile ciddi sonuçlar doğurabilir.
Soruşturma sırasında ByteDance, doktora öğrencisi olan stajyerin AI Laboratuvarı’nın değil, ticarileştirme teknolojisi ekibinin bir parçası olduğunu buldu. Kişi ağustos ayında görevden alındı.
Yerel medya kuruluşu Jiemian’a göre stajyer, kaynak tahsisi konusunda hayal kırıklığına uğradı ve yapay zeka geliştirme platformu Hugging Face’teki bir güvenlik açığından yararlanarak misilleme yaptı. Bu, model eğitiminde kesintilere yol açtı, ancak ByteDance’in ticari Doubao modeli etkilenmedi.
Kesintiye rağmen ByteDance’in otomatik makine öğrenimi (AML) ekibi başlangıçta sebebi belirlemekte zorlandı. Neyse ki saldırı yalnızca dahili modelleri etkileyerek daha geniş çaplı hasarı en aza indirdi.
Bağlamda, 2023 yılında 250 milyar dolar değerinde olacağı tahmin edilen Çin yapay zeka pazarının boyutu hızla artıyor; Baidu AI Cloud, SenseRobot ve Zhipu AI gibi sektör liderleri inovasyona yön veriyor. Ancak model doğruluğu ve güvenilirliği iş başarısıyla doğrudan ilişkili olduğundan bunun gibi olaylar, yapay zeka teknolojisinin ticarileştirilmesi açısından büyük bir risk oluşturuyor.
Bu durum aynı zamanda teknoloji şirketlerindeki stajyer yönetimine ilişkin soruları da gündeme getiriyor. Stajyerler genellikle hızlı tempolu ortamlarda önemli roller oynarlar ancak uygun gözetim ve güvenlik protokolleri olmadığında, onların rolleri risk oluşturabilir. Şirketler, operasyonları kesintiye uğratabilecek kasıtsız veya kötü niyetli eylemleri önlemek için stajyerlerin yeterli eğitim ve denetim almasını sağlamalıdır.
Yapay zekanın ticarileştirilmesine yönelik çıkarımlar
Güvenlik ihlali, yapay zekanın ticarileştirilmesine yönelik olası riskleri vurguluyor. Yapay zeka modeli eğitiminde bunun gibi bir kesinti, ürün sürümlerinde gecikmelere, müşteri güveninin kaybına ve hatta mali kayıplara neden olabilir. Yapay zekanın temel işlevleri yönlendirdiği ByteDance gibi bir şirket için bu tür olaylar özellikle zarar vericidir.
Konu, etik yapay zeka gelişiminin ve iş sorumluluğunun önemini vurguluyor. Şirketler yalnızca en son yapay zeka teknolojisini geliştirmekle kalmamalı, aynı zamanda güvenliklerini sağlamalı ve sorumlu bir yönetim uygulamalıdır. Yapay zekanın iş operasyonlarında önemli bir rol oynadığı bir çağda güveni korumak için şeffaflık ve hesap verebilirlik kritik önem taşıyor.
(Fotoğraf: Jonathan Kemper)
Ayrıca bakınız: TikTok ayda 20 milyon dolar harcarken Microsoft büyük bir yapay zeka müşterisi kazandı
Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: Akıllı Otomasyon Konferansı, BlockX, Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
TechForge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.