Merkezi yapay zeka tehlikelidir: onu nasıl durdurabiliriz?

Date:

OpenAI’nin ChatGPT’si gibi üretken yapay zeka sohbet robotlarının sergilediği zeka, bireylerin ve şirketlerin hayal gücünü yakaladı ve yapay zeka, bir anda teknoloji inovasyonunun en heyecan verici alanı haline geldi.

Yapay zeka, hayatımızın birçok yönünü dönüştürme potansiyeline sahip, oyunun kurallarını değiştiren bir şey olarak kabul ediliyor. Kişiselleştirilmiş tıptan otonom araçlara, otomatik yatırımlardan dijital varlıklara kadar yapay zekanın sağladığı olanaklar sonsuz görünüyor.

Ancak yapay zeka ne kadar dönüştürücü olursa olsun, bu yeni teknolojinin getirdiği pek çok risk var. Kötü niyetli, Skynet tarzı bir yapay zeka sisteminin hileye yöneleceği yönündeki korkular yersiz olsa da yapay zekanın merkezileştirilmesinin tehlikeleri yersiz değil. Microsoft, Google ve Nvidia gibi şirketler yapay zeka arayışında ilerledikçe, gücün yalnızca birkaç merkezi oyuncunun elinde toplanmasına ilişkin korkular daha da belirginleşiyor.

Neden merkezi olmayan yapay zeka konusunda endişelenmeliyiz?

Tekel gücü

Merkezi yapay zekadan kaynaklanan en acil sorun, birkaç teknoloji devinin bunu başarma ihtimalidir. tekelci kontrol endüstrinin üzerinde. Büyük teknoloji devleri zaten yapay zekada çok önemli bir pazar payına sahip oldular ve bu da onlara çok büyük miktarda veriye sahip olma olanağı sağladı. Ayrıca yapay zeka sistemlerinin üzerinde çalıştığı altyapıyı da kontrol ederek rakiplerini bastırmalarına, yenilikçiliği engellemelerine ve ekonomik eşitsizliği sürdürmelerine olanak tanıyorlar.

Yapay zekanın gelişimi üzerinde tekel elde eden bu şirketlerin, düzenleyici çerçeveler üzerinde adil olmayan bir etkiye sahip olmaları ve bunu kendi çıkarlarına göre manipüle etmeleri daha olasıdır. Bu, büyük teknoloji devlerinin muazzam kaynaklarına sahip olmayan daha küçük girişimlerin inovasyon hızına ayak uydurmakta zorlanacağı anlamına gelecektir. Hayatta kalmayı başaranlar ve gelişebilecek gibi görünenler neredeyse kesinlikle ele geçirilecek ve güç daha da azınlığın elinde yoğunlaşacak. Sonuç, yapay zeka gelişimi açısından daha az çeşitlilik, tüketiciler için daha az seçenek ve daha az elverişli koşullar olacak ve yapay zekanın vaat ettiği kullanım durumları ve ekonomik fırsatlar sınırlanacak.

Önyargı ve Ayrımcılık

Tekelci kontrolün yanı sıra, piyasa etrafında gerçek korkular da mevcut. AI sistemlerinin önyargısıToplum yapay zekaya giderek daha fazla güvendikçe bu endişeler daha da önem kazanacak.

Risk, kuruluşların birçok alanda karar almak için otomatik sistemlere daha fazla bağımlı hale gelmesinden kaynaklanıyor. Örneğin, bir şirketin iş başvurusunda bulunanları filtrelemek için yapay zeka algoritmaları kullanması olağandışı bir durum değildir ve önyargılı bir sistemin, etnik köken, yaş veya konumlarına dayalı olarak bir aday alt kümesini adil olmayan bir şekilde hariç tutma riski vardır. Yapay zeka aynı zamanda sigorta şirketleri tarafından poliçe oranlarını belirlemek için, finansal hizmet firmaları tarafından bir kişinin kredi almaya hak kazanıp kazanmadığını ve ödemesi gereken faiz miktarını belirlemek için ve kolluk kuvvetleri tarafından hangi alanların daha yüksek görülme ihtimalinin olduğunu belirlemek için de kullanılıyor. suç. Tüm bu kullanım durumlarında, önyargılı yapay zeka sistemlerinin olası sonuçları son derece endişe vericidir.

Azınlık topluluklarını hedef alan kolluk kuvvetleri, ayrımcı borç verme uygulamaları veya başka bir şey olsun, merkezi yapay zeka potansiyel olarak sosyal eşitsizliği daha da kötüleştirebilir ve sistemik ayrımcılığı mümkün kılabilir.

Gizlilik ve gözetim

Merkezi yapay zeka sistemlerinin oluşturduğu bir diğer risk de gizlilik korumasının olmamasıdır. Yapay zeka tarafından üretilen verilerin büyük çoğunluğunu yalnızca birkaç büyük şirket kontrol ettiğinde, kullanıcıları üzerinde benzeri görülmemiş bir gözetim gerçekleştirme becerisine sahip oluyorlar. En baskın AI platformları tarafından toplanan veriler, bir bireyin davranışını inanılmaz bir doğrulukla izlemek, analiz etmek ve tahmin etmek için kullanılabilir, bu da mahremiyeti aşındırır ve bilgilerin kötüye kullanılma potansiyelini artırır.

Verilerin daha karmaşık araçlar yaratmak için silah olarak kullanılabileceği otoriter hükümetlerin olduğu ülkelerde bu durum özellikle endişe vericidir. vatandaşları izlemek. Ancak demokratik toplumlarda bile, Edward Snowden’ın ABD Ulusal Güvenlik Ajansı’nın Prism programıyla ilgili ifşaatlarında olduğu gibi, artan gözetimin yarattığı bir tehdit var.

Şirketler ayrıca karlarını artırmak için tüketici verilerini potansiyel olarak kötüye kullanabilir. Ayrıca, merkezi varlıklar büyük miktarda hassas veri biriktirdiğinde, bu onları bilgisayar korsanları için daha kazançlı hedefler haline getirir ve veri sızıntısı riskini artırır.

Güvenlik riskleri

Merkezi yapay zeka nedeniyle ulusal güvenlik sorunları da ortaya çıkabilir. Örneğin, yapay zeka sistemlerinin olabileceğine dair haklı korkular var. silah haline getirilmiş Milletler tarafından siber savaş yürütmek, casusluk yapmak ve yeni silah sistemleri geliştirmek için kullanılıyor. Yapay zeka gelecekteki savaşlarda önemli bir araç haline gelebilir ve jeopolitik çatışmaların riskini artırabilir.

Yapay zeka sistemlerinin kendisi de hedef alınabilir. Ülkeler yapay zekaya olan bağımlılıklarını artırdıkça, bu tür sistemler, bariz tek başarısızlık noktaları oldukları için cazip hedefler haline gelecektir. Bir yapay zeka sistemini ortadan kaldırırsanız şehirlerin tüm trafik akışını bozabilir, elektrik şebekelerini devre dışı bırakabilir ve daha fazlasını yapabilirsiniz.

Etik

Merkezi yapay zekanın diğer önemli endişesi de etik. Bunun nedeni, yapay zeka sistemlerini kontrol eden bir avuç şirketin, bir toplumun kültürel normları ve değerleri üzerinde önemli bir etki sahibi olması ve çoğu zaman kâra öncelik vererek daha fazla etik kaygı yaratması olabilir.

Örneğin yapay zeka algoritmaları, rahatsız edici gönderileri tespit etmek ve filtrelemek amacıyla sosyal medya platformları tarafından içeriği denetlemek için halihazırda yaygın olarak kullanılıyor. Endişe, algoritmaların kazara ya da tasarım gereği ifade özgürlüğünü baskı altına almasıdır.

Yapay zeka destekli denetleme sistemlerinin etkinliği konusunda zaten tartışmalar var; görünüşte zararsız olan çok sayıda gönderi otomatik algoritmalar tarafından engelleniyor veya kaldırılıyor. Bu, bu tür sistemlerin bozuk olmadığı, platformun desteklemeye çalıştığı siyasi anlatıya dayanarak perde arkasında manipüle edildiği yönünde spekülasyonlara yol açıyor.

Alternatif mi? Merkezi Olmayan Yapay Zeka

Merkezi yapay zekaya karşı tek mantıksal denge, teknolojinin kontrolünün birkaç kişi yerine çoğunluğun elinde kalmasını sağlayan merkezi olmayan yapay zeka sistemlerinin geliştirilmesidir. Bunu yaparak hiçbir şirketin veya kuruluşun yapay zekanın gelişiminin yönü üzerinde önemli bir etkiye sahip olmamasını sağlayabiliriz.

Yapay zekanın gelişimi ve yönetimi binlerce veya milyonlarca kuruluş tarafından paylaşıldığında, bireyin ihtiyaçlarına daha fazla uyum sağlanarak ilerlemesi daha adil olacaktır. Sonuç, sektöre hakim olan birkaç model yerine, farklı sistemler tarafından kullanılan neredeyse sonsuz sayıda model seçeneğiyle daha çeşitli yapay zeka uygulamaları olacaktır.

Merkezi olmayan yapay zeka sistemleri aynı zamanda kitlesel gözetleme ve verilerin manipülasyonu riskine karşı kontrol ve denge anlamına da gelecektir. Oysa merkezileştirilmiş yapay zeka, bu tür baskılara karşı merkezi olmayan yapay zeka korumalarının çıkarlarına aykırı bir şekilde silah haline getirilip kullanılabilir.

Merkezi olmayan yapay zekanın temel avantajı, herkesin teknolojinin gelişimi üzerinde kontrol sahibi olması ve herhangi bir varlığın teknolojinin gelişimi üzerinde çok büyük bir etki elde etmesinin engellenmesidir.

Yapay zeka nasıl merkezileştirilir?

Merkezi olmayan yapay zeka, altyapı (bilgi işlem ve ağ kaynakları), veriler, modeller, eğitim, çıkarım ve ince ayar süreçleri gibi öğeler de dahil olmak üzere yapay zeka teknolojisi yığınını oluşturan katmanların yeniden düşünülmesini içerir.

Temel altyapı, örneğin Amazon, Microsoft ve Google gibi bulut bilişim devleri tarafından tamamen merkezileştirilmeye devam ederse, umutlarımızı açık kaynak modellere bağlayamayız. Yapay zekanın her yönünün merkezi olmadığından emin olmalıyız

Yapay zeka yığınını merkezileştirmenin en iyi yolu, onu modüler bileşenlere ayırmak ve bunların etrafında arz ve talebe dayalı pazarlar oluşturmaktır. Bunun nasıl çalışabileceğine dair bir örnek KüreHerkesin katılabileceği Merkezi Olmayan Fiziksel Altyapı Ağı (DePIN) oluşturdu.

Spheron’un DePIN’i ile herkes, yeterince kullanılmayan bilgi işlem kaynaklarını paylaşmakta özgürdür; bu kaynakları, yapay zeka uygulamalarını barındırmak için altyapıya ihtiyaç duyanlara kiraya verir. Yani GPU’lu güçlü bir dizüstü bilgisayar kullanan bir grafik tasarımcısı, DePIN’i kendi işleri için kullanmadığı zamanlarda işlem gücünü DePIN’e bağışlayabilir ve token teşvikleriyle ödüllendirilebilir.

Bunun anlamı, yapay zeka altyapı katmanının tek bir sağlayıcının kontrolünde olmaksızın geniş çapta dağıtılmış ve merkezi olmayan hale gelmesidir. Şeffaflık, değişmezlik ve otomasyon sağlayan blockchain teknolojisi ve akıllı sözleşmelerle sağlanır.

DePIN ayrıca açık kaynaklı modeller ve temel veriler için de çalışabilir. Örneğin, eğitim veri kümelerini merkezi olmayan bir ağ üzerinde paylaşmak mümkündür. KubikBu, bu verinin sağlayıcısının bilgilerine bir yapay zeka sistemi tarafından her erişildiğinde ödüllendirilmesini sağlayacaktır.

Erişim ve izinlerin merkezi olmadığından emin olmak için teknoloji yığınının her parçası bu şekilde dağıtılır. Ancak yapay zeka endüstrisi şu anda böyle bir düzeyde ademi merkeziyetçilik sağlamakta zorlanıyor. Açık kaynaklı modeller yapay zeka geliştiricileri arasında son derece popüler hale gelmiş olsa da çoğu kişi özel bulut ağlarına güvenmeye devam ediyor, bu da eğitim ve çıkarım süreçlerinin büyük ölçüde merkezi olduğu anlamına geliyor.

Ancak ademi merkeziyetçiliğin kazanması için güçlü teşvikler var. Örneğin DePIN ağlarının başlıca avantajlarından biri, genel masrafların azaltılmasına yardımcı olmalarıdır. Spheron gibi ağlar aracılara bağımlı olmadığından katılımcıların herhangi bir ödeme yapmasına veya üçüncü taraflarla gelir paylaşmasına gerek yoktur. Üstelik fiyatlandırma açısından kârlılığı artırma baskısı altındaki şirketlere göre daha rekabetçi olmayı göze alabilirler.

Yerelleşme kazanmalı

Yapay zekanın geleceği çok fazla potansiyel barındırıyor ama aynı zamanda tehlikeli. Yapay zeka sistemlerinin yetenekleri son birkaç yılda önemli ölçüde gelişirken, ilerlemelerin çoğu güçlü şirketler tarafından gerçekleştirildi ve bu da onların sektör üzerindeki etkilerinin artmasına neden oldu. Bunun sadece maddi olarak değil, bir bedeli var.

Tek makul alternatif, erişilebilirliği artırabilecek ve yapay zekanın daha fazla esnekliğini sağlayabilecek merkezi olmayan yapay zekanın daha fazla benimsenmesini teşvik etmektir. Herkesin yapay zekanın geliştirilmesine eşit bir temelde katılmasına izin vererek, herkese eşit fayda sağlayabilecek, aynı zamanda kullanıcılarını ilk sıraya koyabilecek daha çeşitli, ilginç ve kullanışlı uygulamalar göreceğiz.

Merkezi olmayan bir yapay zeka geleceği inşa etmek, yapay zeka yığınının her katmanında büyük miktarda koordinasyon ve işbirliği gerektirecektir. Neyse ki katılımcıların bunu yapması için güçlü teşvikler var. Tekrar ediyorum, teşvikler sadece parasal değildir.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Share post:

Subscribe

spot_img

Popular

More like this
Related