OpenAI ve diğer önde gelen yapay zeka şirketleri, mevcut yöntemlerin sınırlamalarının üstesinden gelmek için yeni eğitim teknikleri geliştiriyor. Daha büyük, daha güçlü dil modellerinin geliştirilmesindeki beklenmeyen gecikmelere ve zorluklara değinen bu yeni teknikler, algoritmalara ‘düşünmeyi’ öğretmek için insan benzeri davranışlara odaklanıyor.
Bildirildiğine göre bir düzine yapay zeka araştırmacısı, bilim insanı ve yatırımcı tarafından yönetilen, OpenAI’nin son zamanlardaki gelişimini destekleyen yeni eğitim teknikleri ‘o1’ modeli (eski adıyla Q* ve Strawberry), yapay zeka geliştirme ortamını dönüştürme potansiyeline sahip. Bildirilen ilerlemeler, yapay zeka modellerinin geliştirilmesine yardımcı olacak özel donanım ve enerji de dahil olmak üzere, yapay zeka şirketlerinin sürekli olarak ihtiyaç duyduğu kaynak türlerini veya miktarlarını etkileyebilir.
o1 modeli, birçok görevi adımlara bölerek sorunlara insan muhakemesini ve düşünmesini taklit edecek şekilde yaklaşmak için tasarlanmıştır. Model aynı zamanda performansını artırmak için yapay zeka endüstrisindeki uzmanlar tarafından sağlanan özel verilerden ve geri bildirimlerden de yararlanıyor.
ChatGPT’nin 2022’de OpenAI tarafından tanıtılmasından bu yana, yapay zeka yeniliklerinde bir artış oldu ve birçok teknoloji şirketi, ister daha fazla miktarda veri ister gelişmiş bilgi işlem kaynakları yoluyla olsun, mevcut yapay zeka modellerinin genişletilmesi gerektiğini iddia ediyor. Ancak o zaman yapay zeka modelleri sürekli olarak gelişebilir.
Artık yapay zeka uzmanları, yapay zeka modellerinin ölçeğinin büyütülmesinde sınırlamalar olduğunu bildirdi. 2010’lar ölçeklendirme açısından devrim niteliğinde bir dönemdi ancak AI laboratuvarları Safe Superintelligence (SSI) ve OpenAI’nin kurucu ortağı Ilya Sutskever, özellikle dil yapılarını ve kalıplarını anlama konusunda yapay zeka modellerinin eğitiminin dengelendiğini söylüyor.
“2010’lu yıllar ölçeklendirme çağıydı, şimdi ise bir kez daha merak ve keşif çağına geri döndük. Doğru olanı ölçeklendirmek artık daha önemli” dediler.
Son zamanlarda yapay zeka laboratuvarı araştırmacıları, OpenAI’nin GPT-4 modelinden daha güçlü olan büyük dil modellerinin (LLM) geliştirilmesinde ve yayınlanmasında gecikmeler ve zorluklarla karşılaştı.
Birincisi, büyük modellerin eğitiminin genellikle on milyonlarca doları bulan maliyeti vardır. Sistem karmaşıklığından kaynaklanan donanım arızası gibi ortaya çıkan komplikasyonlar nedeniyle, bu modellerin nasıl çalıştığının nihai analizi aylar sürebilir.
Bu zorluklara ek olarak, eğitim çalışmaları önemli miktarda enerji gerektirir ve bu da çoğu zaman süreçleri kesintiye uğratabilecek ve daha geniş elektrik şebekesini etkileyebilecek güç kesintilerine neden olur. Diğer bir sorun ise büyük dil modellerinin kullandığı devasa miktardaki veridir; öyle ki yapay zeka modellerinin dünya çapında erişilebilir tüm verileri tükettiği bildirilmektedir.
Araştırmacılar, eğitim sırasında veya çıkarım aşamalarında mevcut yapay zeka modellerini geliştirmek için ‘test zamanı hesaplaması’ olarak bilinen bir tekniği araştırıyorlar. Yöntem, bir dizi en iyi çözüme karar vermek için gerçek zamanlı olarak birden fazla yanıtın oluşturulmasını içerebilir. Bu nedenle model, insan benzeri karar verme ve akıl yürütme gerektiren zor görevlere daha fazla işlem kaynağı ayırabilir. Amaç modeli daha doğru ve yetenekli hale getirmektir.
O1 modelinin geliştirilmesine yardımcı olan OpenAI araştırmacısı Noam Brown, yeni bir yaklaşımın nasıl şaşırtıcı sonuçlara ulaşabileceğinin bir örneğini paylaştı. Geçtiğimiz ay San Francisco’daki TED Yapay Zeka konferansında Brown şunu açıkladı: “Bir poker elinde bir botun yalnızca 20 saniye düşünmesi, modeli 100.000 kat büyütmek ve 100.000 kat daha uzun süre eğitmekle aynı artırıcı performansı sağladı.”
Bu, yalnızca model boyutunu ve eğitim süresini artırmak yerine, yapay zeka modellerinin bilgiyi işleme biçimini değiştirebilir ve daha güçlü, verimli sistemlere yol açabilir.
Diğer yapay zeka laboratuvarlarının o1 tekniğinin versiyonlarını geliştirdiği bildiriliyor. Dahil olanlar xAI, Google DeepMindVe Antropik. Yapay zeka dünyasındaki rekabet yeni bir şey değil ancak yeni tekniklerin bir sonucu olarak yapay zeka donanım pazarında önemli bir etki görebiliriz. Şirketler gibi NvidiaÜrünleri için yüksek talep nedeniyle şu anda yapay zeka çiplerinin tedariğinde hakim konumda olan şirket, güncellenmiş yapay zeka eğitim tekniklerinden özellikle etkilenebilir.
Nvidia, Ekim ayında dünyanın en değerli şirketi oldu ve servetindeki artış büyük ölçüde çiplerinin yapay zeka dizilerinde kullanılmasına bağlanabilir. Yeni teknikler Nvidia’nın pazar konumunu etkileyebilir ve şirketi ürünlerini gelişen yapay zeka donanım talebini karşılayacak şekilde uyarlamaya zorlayabilir. Potansiyel olarak bu, çıkarım pazarındaki yeni rakipler için daha fazla yol açabilir.
Gelişen donanım talepleri ve o1 modelinde uygulananlar gibi daha verimli eğitim yöntemlerinin yönlendirdiği yeni bir yapay zeka geliştirme çağı ufukta görünebilir. Hem yapay zeka modellerinin hem de bunların arkasındaki şirketlerin geleceği yeniden şekillendirilebilir, benzeri görülmemiş fırsatların ve daha büyük rekabetin önünü açabilir.
Ayrıca bakınız: Antropik, felaketleri önlemek için yapay zeka düzenlemesini teşvik ediyor
Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: Akıllı Otomasyon Konferansı, BlockX, Dijital Dönüşüm HaftasıA