Yapay vicdanın tehlikeleri ve vââtleri

Yapay zeka, istenmeyen sonuçlara neden olduğunda bunu fark etmiyor. Geliştiriciler bunu düzeltmeye çalışırken soruna katkıda bulunabilirler. 


OpenAI'nin çok oyunculu savaş oyunu DOTA yı yenmek için [geliştirdiği] ne olursa olsun kazanmaya yönelik sistemi her tür eğlence amaçlı bilim kurguya ilham verdi.  Fotoğraf: STR/AFP/GETTY IMAGES


Biz insanların teknolojik hedeflerimize ulaşmanın neticelerini öngörmeye dair kötü bir şöhretimiz var. Araç güvenliğine emniyet kemerlerini ekleyin, hız yapma ve kaza [oranları] artabilir. Ucuz enerji için hidrokarbon yakın, gezegen ısınır. Uzmanlara cerrahi robotlar  ya da verimliliği arttırmak için kestirimci emniyet algoritmaları gibi yeni teknolojiler verin, stajyerlerin öğrenmesi engellenir. 

Yine de, istenmeyen sonuçları tahmin etmede, ürettiğimiz akıllı teknolojilere nazaran hayret vericiyiz. 


[Örneğin] Takviyeli öğrenmeyi alın, son zamanlarda [olduğu üzere] bazı daha heybetli tanıtımların arkasındaki YZ’nın özellikle etkili bir lezzeti. TÖ sistemleri, ödül durumlarını (namı diğer hedefleri,”puan” kazandıkları sonuçları) alıyor ve eylemlerinin istenmeyen sonuçlarına bakmadan onların peşinden koşuyor. DeepMind’ın AlphaGo’su, ne pahasına olursa olsun masa oyunu Go’yu kazanmak için dizayn edilmişti. OpenAI’nin sistemi şeytanca karmaşık, çok oyunculu bir çevrimiçi savaş oyunu Defense of the Ancients(DOTA) için aynısını yaptı. Her ikisi de, insanlığın sunabileceğinin en iyisini yenmek için gerekli alışılmadık, bazı durumlarda radikal yeni taktikler buldular fakat bunu yapmak için orantısız şekilde büyük miktar enerji ve doğal kaynak tükettiler. Bu nevi tek fikirlilik, dünyayı ve sonra işi halletmek için tüm evreni yok etmek üzere mümkün olduğunca ataç üretmek için tasarlanmış bir YZ de dahil her çeşit eğlenceli bilim kurguya ilham verdi.       


Bu ne pahasına olursa olsun kazanma yaklaşımı görünürde zararsız olduğu halde, YZ’nin daha fazla tatbiki kullanımlarıyla savunulamazdır. Aksi takdirde, kendimizi elektrik kesintileri, flash trading (ani ticaret) piyasa çöküşleri, veya (daha fazla) hiper-polarize izole çevrimiçi topluluklar içinde boğulurken bulabiliriz. Açık olmak gerekirse, bu tehditler, yalnızca YZ önceki en iyi uygulamalarda inanılmaz iyileştirmeler sağladığından mümkündür: elektrik ağları daha etkili ve güvenilir hale geliyor, mikrosaniye frekanslı ticaret (yüksek frekanslı ticaret) küresel piyasa etkinliğinde büyük ilerlemelere olanak sağlıyor ve sosyal medya platformları aksi takdirde gizli kalacak mallar, servisler, bilgi ve insanlarla kazançlı irtibatlar öneriyor. Fakat bu benzer süreçleri ne kadar tekil olarak hedeflerine odaklanan YZ’ye devredersek, o kadar istenmeyen sonuç üretebilirler, bazen ışık hızında.     


YZ topluluğundaki bazı kişiler bu endişeleri zaten irdeliyor. Deepmind’ın kurucularından biri “ilgi ve çabayı YZ’dan insanlığın bazı en zorlu sorunlarının çözümlerine katkıda bulunmada yararlanmaya yöneltmeyi amaçlayan Partnership on AI koalisyonunun kurucu ortaklarından biri. 4 Aralık’da PAI, basit bir oyunda optimizasyon aktivitesinin istemeyen yan etkilerini önleyebilecek bir kavram kanıtlama destek öğrenme modeli [olan] SafeLife’ın piyasaya sürüldüğünü duyurdu. SafeLife’ın bu sonuçları karakterize etmek için açık bir yolu vardır: Oyun sistemindeki entropide (veya düzensizlik veya rastgelelik derecesi) artış. Bu, doğası gereği pratik bir sistem değildir, ancak bir takviyeli öğrenme güdümlü sistemin, ikincil zararı en aza indirirken, bir hedefe yönelik optimizasyonu nasıl yapabileceğini  gösterir.       


Bu çok heyecan verici bir çalışma ve prensipte YZ ve robotlar gibi akıllı teknolojilerin her türlü istenmeyen etkisinde yardımcı olabilir. Örneğin, fabrika robotlarına eğer yollarında kırmızı kuyruklu bir şahin uçuyorsa yavaşlamaları gerektiğini farketmede yardımcı olabilir (bunun olduğunu gördüm. Bu binalar güvercinler ve yeterince büyüklerse, alıcı kuşlara mesken olurlar). SafeLife benzeri bir model programlanmış ayarlarını verimliliği maksimum hale getirmek için daha fazla işleterek aşırı yükleyebilir; çünkü canlıları yok etmek dünyaya çok miktarda entropi katar. Fakat teoride yardımcı olmasını umduğumuz bazı şeyler kendilerini çözmeye çalıştıkları problemlere vesile olurken bulurlar. Evet, bu,

gelecek nesil AI sistemlerinde, istenmeyen sonuç modülü, tam da tesirli, istenmeyen sonuçlar yaratan şey olabilir anlamına geliyor. O robot o şahin için yavaşladığında yakınındaki bir insan onun harekete devam etmesini bekliyorsa ne olur? Güvenlik ve verimlilik tehdit altına girebilir. 

   

Bu[durum], özellikle bu sonuçlar kayda değer ölçüde uzay ve zamanı kapsadıklarında sorunludur. [Örneğin] DOTA algoritmasını alın. Bir maç sırasında, kazanma olasılığının yüzde 90’ın üzerinde olduğunu hesapladığında, diğer oyunculara sohbet vasıtasıyla sataşmaya programlanmıştır. Zor kazanılmış güçlerinizin ve dolambaçlı stratejinizin bir bilgisayar programı tarafından yok edildiğini seyrederken,  “Kazanma olasılığı yüzde 92” [ifadesini] okuyabilirsiniz. Bunun oyuncuların oyuna yaklaşımları üzerinde ne gibi etkileri var? Ve, onu da bir kenara bırakırsak, oyuna bağlılıklarından ne haber? [ya da] genel olarak oyun oynamaya? [veya] kariyer tutkularına? Ya topluma katkılarına [etkileri neler]? Eğer bu bir masa başı spekülasyonu gibi görünüyorsa, Lee Sedol’ün—dünyanın en iyi profesyonel Go oyuncusu, tüm hayatını oyunda ustalaşmaya adamış üstün zekalı bir çocuk—sistemi hiçbir insanın yenemeyeceğini söyleyerek oyunu resmen ve kalıcı olarak bıraktığını unutmayın. Sedol’ün emekliye ayrılmasının oyun, kendisi veya toplum için iyi mi kötü mü olduğu belli değildir; ancak bu, ödül işlevini optimize eden YZ tabanlı bir sistemin eylemlerinin sembolik ve dikkate değer istenmeyen sonuçlarından biridir.              


Bu [durum] oyunların çok ötesine geçer. Sosyal medyanın altında yatan YZ’nın linke tıklama ve sitede geçirilen zaman gibi şeyler uyarınca optimizasyon yaptığını zaten biliyoruz, ki bu da bizi sadece fikirlerimizi paylaşan insanlarla etkileşime geçtiğimiz sosyal yankı odalarına sürükledi. Bu çeşit sonuçlar arasındaki rastlantısal bağlantılar ve bu algoritmaların eylemlerini algılamak, ölçmek ve açıklamak oldukça zor, bu nedenle herhangi bir YZ tasarımcısının onları SafeLife’dan esinlenmiş bir sisteme dahil ettiğini hayal etmek güç.      


Elbette burada gelişme kaydedeceğiz, ve diğer dijital teknolojilerde olduğu gibi, bu gelişimin hızı ve kaplamı muhtemelen bizi şaşırtacaktır. Ancak burada da önemli bir risk var. Entropi farkındalıklı YZ konusunda, bir çoğumuzu istenmeyen YZ sonuçlarının risksiz hale getirildiğini düşünmeye itecek şekilde gelişim kaydedebiliriz ve o zaman diğer istenmeyen ve daha uzun zaman ölçeklerinde vuku bulan daha karmaşık etkiler olasılığını dikkate almayacağız. Bu, emniyet kemerleri gibi hareketsiz ve gözlemlemesi kolay bir şeyde meydana geldi, bu yüzden YZ gibi dağıtımlı bir IT (bilgi teknolojisi) ile daha büyük bir zorluk beklemeliyiz. Buna karşı, karmaşık sosyal sistemlerin dinamiklerine aşina olanların yeterli dikkatiyle ve bu sistemlerin kullanabilir giriş verilerinin çeşitliliğini genişletmek suretiyle önlem alabiliriz; ama keza bunlar tam da onun vuku bulmasını temin eden şeyler olabilir. Burada tarih, nihai belirleyici olacak ve biz anlaşılan o ki dünyanın daha güvenli YZ, kendi kendini yenileyen ataçlar, veya—kuvvetle muhtemel —ikisinden de biraz [bir şeyler taşıyan bir teknoloji] ile dolduğunu görecek kadar yaşayabiliriz.   

 

Yazar: Matt Beane

Çeviri Zeynep Şenel Gencer

Kaynak https://www.wired.com/story/opinion-the-perils-and-promise-of-artificial-conscientiousness/


Yorumlar

Popüler Yayınlar