UMD’nin etik ve kapsayıcı yapay zeka arayışı

Date:

Yapay zeka sistemleri günlük hayatımızdaki kritik karar alma süreçlerine giderek daha fazla nüfuz ettikçe, etik çerçevelerin yapay zeka gelişimine entegrasyonu bir araştırma önceliği haline geliyor. Maryland Üniversitesi’nde (UMD), disiplinlerarası ekipler Normatif akıl yürütme, makine öğrenimi algoritmaları ve sosyo-teknik sistemler arasındaki karmaşık etkileşimin üstesinden gelin.

Yakın zamanda yapılan bir röportajda Yapay Zeka Haberleridoktora sonrası araştırmacılar Ilaria Canavotto Ve Vaişnav Kameswaran Yapay zeka etiğindeki acil zorlukların üstesinden gelmek için felsefe, bilgisayar bilimi ve insan-bilgisayar etkileşimindeki uzmanlığı birleştirin. Çalışmaları, etik ilkelerin yapay zeka mimarilerine yerleştirilmesinin teorik temellerini ve istihdam gibi yüksek riskli alanlarda yapay zeka kullanımının pratik sonuçlarını kapsıyor.

Yapay zeka sistemlerinin normatif anlayışı

UMD’nin Değer Merkezli Yapay Zeka (VCAI) girişiminde araştırmacı olan Ilaria Canavotto, İleri Bilgisayar Çalışmaları Enstitüsü ve Felsefe Bölümü’ne bağlıdır. Temel bir soruyu ele alıyor: Yapay zeka sistemlerine normatif anlayışı nasıl aşılayabiliriz? Yapay zeka, insan haklarını ve refahını etkileyen kararları giderek daha fazla etkilediğinden, sistemlerin etik ve yasal normları kavraması gerekiyor.

“Araştırdığım soru şu; bu tür bilgileri, dünyaya ilişkin bu normatif anlayışı, robot, sohbet robotu veya buna benzer herhangi bir makineye nasıl aktarabiliriz?” Canavotto diyor.

Araştırması iki yaklaşımı birleştiriyor:

Yukarıdan aşağıya yaklaşım: Bu geleneksel yöntem, kuralların ve normların sisteme açıkça programlanmasını içerir. Ancak Canavotto şunu belirtiyor: “Bunları bu kadar kolay bir şekilde yazmak imkansız. Her zaman yeni durumlar ortaya çıkıyor.

Aşağıdan yukarıya yaklaşım: Verilerden kural çıkarmak için makine öğrenimini kullanan daha yeni bir yöntem. Daha esnek olmasına rağmen şeffaflıktan yoksundur: “Bu yaklaşımın sorunu, sistemin ne öğrendiğini gerçekten bilmememiz ve kararını açıklamanın çok zor olmasıdır” diye belirtiyor Canavotto.

Canavotto ve meslektaşları Jeff Horty ve Eric Pacuit, her iki yaklaşımın en iyi yönlerini birleştirmek için hibrit bir yaklaşım geliştiriyorlar. Yasal ve normatif akıl yürütmeye dayanan açıklanabilir karar verme süreçlerini sürdürürken verilerden kurallar öğrenebilen yapay zeka sistemleri oluşturmayı hedefliyorlar.

“[Our] yaklaşmak […] yapay zeka ve hukuk denilen bir alanı temel alıyor. Dolayısıyla bu alanda verilerden bilgi çıkarmak için algoritmalar geliştirdiler. Dolayısıyla, bu algoritmalardan bazılarını genelleştirmek ve daha genel olarak yasal akıl yürütmeye ve normatif akıl yürütmeye dayanan bilgileri çıkarabilen bir sisteme sahip olmak istiyoruz” diye açıklıyor.

Yapay zekanın işe alım uygulamaları ve engelli katılımı üzerindeki etkisi

Canavotto teorik temellere odaklanırken, UMD’nin NSF Güvenilir Yapay Zeka ve Hukuk ve Toplum Enstitüsü’ne bağlı Vaishnav Kameswaran, yapay zekanın gerçek dünyadaki etkilerini, özellikle de engelli insanlar üzerindeki etkisini inceliyor.

Kameswaran’ın araştırması yapay zekanın işe alım süreçlerinde kullanımını inceliyor ve sistemlerin engelli adaylara karşı yanlışlıkla nasıl ayrımcılık yapabildiğini ortaya çıkarıyor. Şöyle açıklıyor: “Kara kutuyu biraz açmak, bu algoritmaların arka uçta ne yaptığını ve adayları nasıl değerlendirmeye başladıklarını anlamaya çalışıyoruz.”

Bulguları, birçok yapay zeka destekli işe alma platformunun, adayları değerlendirmek için büyük ölçüde göz teması ve yüz ifadeleri gibi normatif davranışsal ipuçlarına dayandığını ortaya koyuyor. Bu yaklaşım, belirli engelleri olan bireyleri önemli ölçüde dezavantajlı hale getirebilir. Örneğin, görme engelli adaylar, yapay zeka sistemlerinin sıklıkla etkileşim eksikliği olarak yorumladığı bir sinyal olan göz temasını sürdürmekte zorluk yaşayabilir.

Kameswaran, “Bu platformlar, bu niteliklerin bazılarına odaklanarak ve adayları bu niteliklere göre değerlendirerek mevcut sosyal eşitsizlikleri daha da kötüleştirme eğiliminde” diye uyarıyor. Kendisi, bu eğilimin halihazırda önemli istihdam zorluklarıyla karşı karşıya olan engelli insanları işgücünde daha da marjinalleştirebileceğini savunuyor.

Daha geniş etik manzara

Her iki araştırmacı da yapay zekayı çevreleyen etik kaygıların kendi spesifik çalışma alanlarının çok ötesine uzandığını vurguluyor. Birkaç önemli konuya değiniyorlar:

  1. Veri gizliliği ve onayı: Araştırmacılar, özellikle yapay zeka eğitimi için veri toplama konusunda mevcut izin mekanizmalarının yetersizliğinin altını çiziyor. Kameswaran, Hindistan’daki çalışmalarından örnekler veriyor; burada savunmasız nüfus, farkında olmadan kapsamlı kişisel verileri, COVID-19 salgını sırasında yapay zeka destekli kredi platformlarına teslim ediyor.
  2. Şeffaflık ve açıklanabilirlik: Her iki araştırmacı da, özellikle bu kararlar insanların yaşamlarını önemli ölçüde etkilediğinde, yapay zeka sistemlerinin nasıl karar verdiğini anlamanın önemini vurguluyor.
  3. Toplumsal tutumlar ve önyargılar: Kameswaran, teknik çözümlerin tek başına ayrımcılık sorunlarını çözemeyeceğine dikkat çekiyor. Engelli insanlar da dahil olmak üzere dışlanmış gruplara yönelik tutumlarda daha geniş toplumsal değişikliklere ihtiyaç var.
  4. Disiplinlerarası işbirliği: Araştırmacıların UMD’deki çalışmaları, yapay zeka etiğinin ele alınmasında felsefe, bilgisayar bilimi ve diğer disiplinler arasındaki işbirliğinin önemini göstermektedir.

İleriye bakmak: çözümler ve zorluklar

Zorluklar önemli olsa da her iki araştırmacı da çözümler üzerinde çalışıyor:

  • Canavotto’nun normatif yapay zekaya yönelik hibrit yaklaşımı, etik açıdan daha bilinçli ve açıklanabilir yapay zeka sistemlerine yol açabilir.
  • Kameswaran, yapay zeka işe alım platformlarını potansiyel ayrımcılık açısından değerlendirmek üzere savunuculuk gruplarına yönelik denetim araçları geliştirmeyi öneriyor.
  • Her ikisi de, Yapay Zeka ile ilgili ayrımcılığı ele alacak şekilde Engelli Amerikalılar Yasasının güncellenmesi gibi politika değişikliklerinin gerekliliğini vurguluyor.

Ancak konunun karmaşıklığının da farkındalar. Kameswaran’ın belirttiği gibi, “Maalesef yapay zekayı belirli türdeki veriler ve denetim araçlarıyla eğitmeye yönelik teknik bir çözümün tek başına bir sorunu çözeceğini düşünmüyorum. Dolayısıyla çok yönlü bir yaklaşım gerektiriyor.”

Araştırmacıların çalışmalarından elde edilen önemli bir sonuç, yapay zekanın yaşamlarımız üzerindeki etkisi konusunda daha fazla toplumsal farkındalığa duyulan ihtiyaçtır. İnsanların ne kadar veri paylaştıklarını veya bu verilerin nasıl kullanıldığını bilmeleri gerekiyor. Canavotto’nun işaret ettiği gibi, şirketler genellikle bu bilgiyi gizlemeye yönelik bir teşvike sahiptir ve onları şu şekilde tanımlamaktadır: “Size hizmetimi anlatmaya çalışan şirketler, verileri bana verirseniz sizin için daha iyi olacaktır.”

Araştırmacılar, halkı eğitmek ve şirketleri hesap verebilir kılmak için çok daha fazlasının yapılması gerektiğini savunuyorlar. Sonuçta Canavotto ve Kameswaran’ın felsefi araştırmayı pratik uygulamayla birleştiren disiplinlerarası yaklaşımı, doğru yönde ilerleyen bir yoldur ve yapay zeka sistemlerinin güçlü, aynı zamanda etik ve adil olmasını sağlar.

Ayrıca bakınız: Yardımcı olacak veya engel olacak düzenlemeler: Cloudflare’in yaklaşımı

Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: Akıllı Otomasyon Konferansı, BlockX, Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.

TechForge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.

Etiketler: yapay zeka, yapay zeka, etik, araştırma, Toplum

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Share post:

Subscribe

spot_img

Popular

More like this
Related