Advertisement
Çılgın Çalışmanın Önerisine Göre Yapay Zeka Neden Uzaylılarla Karşılaşmadığımızı Açıklayabilir
Yapay Zekâ binlerce farklı şekilde varlığını hissettiriyor. Bilim insanlarının devasa veri yığınlarını anlamlandırmasına yardımcı oluyor; finansal dolandırıcılığı tespit etmeye yardımcı oluyor, arabalarımızı kullanıyor; bize müzik önerileri sunuyor, sohbet robotları bizi çıldırtıyor. Ve daha yeni başlıyor.

Yapay zekanın ne kadar hızlı gelişmeye devam edeceğini anlayabiliyor muyuz? Ve eğer yanıt hayır ise, bu Büyük Filtre'yi oluşturur mu?

Fermi Paradoksu, gelişmiş uygarlıkların var olma olasılığının yüksek olması ile var olduklarına dair hiçbir kanıt olmaması arasındaki tutarsızlıktır. Bu çelişkinin neden var olduğuna dair pek çok çözüm önerilmiştir. Bu fikirlerden biri de 'Büyük Filtre'dir.

Büyük Filtre, akıllı yaşamın gezegenler arası ve yıldızlar arası olmasını engelleyen ve hatta ölümüne yol açan varsayılan bir olay veya durumdur. İklim değişikliği, nükleer savaş, asteroit çarpmaları, süpernova patlamaları, salgın hastalıklar ya da haydutların dehşet verici olaylar listesinde yer alan herhangi başka bir şeyi düşünün.

Ya da yapay zekanın hızlı gelişimine ne dersiniz?

Acta Astronautica'da yayınlanan yeni bir makale, Yapay Zekanın Yapay Süper Zeka (ASI) haline geldiği ve ASI'nin Büyük Filtre olduğu fikrini araştırıyor. Makalenin başlığı "Yapay Zekâ, evrende ileri teknik uygarlıkları nadir kılan Büyük Filtre midir?" Makalenin yazarı Manchester Üniversitesi Fizik ve Astronomi Bölümü'nden Michael Garrett.

Bazıları Büyük Filtre'nin bizimki gibi teknolojik türlerin çok gezegenli olmasını engellediğini düşünüyor. Bu kötü bir şey çünkü bir türün sadece tek bir evi varsa yok olma ya da durgunluk riski daha yüksektir. Garrett'a göre, yedek bir gezegeni olmayan bir tür zamana karşı yarışıyor demektir.

Garrett, "Böyle bir filtrenin, bu uygarlıklar istikrarlı, çok gezegenli bir varoluş geliştirmeden önce ortaya çıktığı ve teknik bir uygarlığın tipik uzun ömürlülüğünün (L) 200 yıldan az olduğu öne sürülmektedir" diye yazıyor.

Eğer doğruysa, bu durum neden ETI'lere (Dünya Dışı Zekâlar) dair hiçbir teknosinyal ya da başka kanıt tespit edemediğimizi açıklayabilir. Eğer 200 yıllık bir kısıtlamayla karşı karşıyaysak ve bunun nedeni ASI ise, bu bizi nereye götürür?

Garrett, "...bu tür varoluşsal tehditlere karşı Dünya'da YZ gelişimi ve çok gezegenli bir toplumun ilerlemesi için hızlı bir şekilde düzenleyici çerçeveler oluşturmanın kritik bir ihtiyaç olduğunun" altını çiziyor.

Pek çok bilim insanı ve diğer düşünür muazzam bir dönüşümün eşiğinde olduğumuzu söylüyor. YZ, işleri nasıl yaptığımızı dönüştürmeye daha yeni başlıyor; dönüşümün çoğu perde arkasında. Yapay zeka milyonlarca kişinin işini ortadan kaldırmaya hazır görünüyor ve robotikle eşleştirildiğinde dönüşüm neredeyse sınırsız görünüyor. Bu oldukça açık bir endişe.

Ancak daha derin, daha sistematik endişeler de var. Algoritmaları kim yazıyor? Yapay zeka bir şekilde ayrımcılık yapacak mı? Neredeyse kesin. Rekabet halindeki algoritmalar güçlü demokratik toplumların altını oyacak mı? Açık toplumlar açık kalmaya devam edecek mi? YZ bizim adımıza karar vermeye başlayacak mı ve başlarsa kim sorumlu olacak?

Bu, net bir son noktası olmayan, dallanıp budaklanan sorulardan oluşan genişleyen bir ağaç.

Stephen Hawking (RIP), YZ'nin bağımsız olarak evrimleşmeye başlaması halinde insanlığın sonunu getirebileceği konusunda ünlü bir uyarıda bulunmuştur.

"YZ'nin insanların yerini tamamen almasından korkuyorum. Eğer insanlar bilgisayar virüsleri tasarlarsa, birileri de kendini geliştiren ve kopyalayan bir YZ tasarlayacaktır. Bu, insanlardan daha iyi performans gösteren yeni bir yaşam biçimi olacak," dedi 2017 yılında Wired dergisine. YZ insanlardan daha iyi performans gösterdiğinde, ASI haline gelir.

Hawking, YZ hakkında uyarılarda bulunan en tanınmış seslerden biri olabilir, ancak tek kişi o değil. Medya, YZ'nin bizim için yaptığı işlerle ilgili makalelerin yanı sıra tartışmalar ve uyarılarla dolu. En endişe verici uyarılar, YZ'nin yoldan çıkabileceğini söylüyor. Bazıları bunu bilim kurgu olarak nitelendiriyor ama Garrett öyle değil.

Garrett şöyle yazıyor: "Yapay Süper Zeka'nın (YZ) eninde sonunda kötü yola düşebileceği endişesi önemli bir sorun olarak görülüyor ve önümüzdeki birkaç yıl içinde bu olasılıkla mücadele etmek, bu alandaki liderler için giderek büyüyen bir araştırma konusu."

Eğer YZ hiçbir fayda sağlamasaydı, mesele çok daha kolay olurdu. Ancak gelişmiş tıbbi görüntüleme ve teşhisten daha güvenli ulaşım sistemlerine kadar her türlü faydayı sağlıyor. Hükümetler için işin püf noktası, zararı sınırlarken faydaların gelişmesine izin vermektir.

Garrett, "Bu durum özellikle ulusal güvenlik ve savunma gibi sorumlu ve etik gelişimin her şeyden önemli olması gereken alanlarda geçerlidir" diye yazıyor.

Sorun şu ki biz ve hükümetlerimiz hazırlıksızız. YZ gibi bir şey hiç olmadı ve onu nasıl kavramsallaştırmaya ve yörüngesini anlamaya çalışırsak çalışalım, eksik kalıyoruz.

Ve eğer biz bu durumdaysak, YZ'yi geliştiren diğer biyolojik türler de bu durumda olacaktır. YZ'nin ve ardından ASI'nin ortaya çıkışı evrensel olabilir ve bu da onu Büyük Filtre için bir aday haline getirebilir.

ASI'nin somut olarak ortaya koyduğu risk budur: Artık kendisini yaratan biyolojik yaşama ihtiyaç duymayabilir.

Garrett, "Teknolojik tekilliğe ulaşıldığında, ASI sistemleri biyolojik zekayı hızla aşacak ve geleneksel denetim mekanizmalarını tamamen geride bırakan bir hızda gelişerek, biyolojik çıkarlar veya etik ile uyumlu olması muhtemel olmayan öngörülemeyen ve istenmeyen sonuçlara yol açacaktır" diye açıklıyor.

ASI, kendisini çevreleyen sinir bozucu biyolojik yaşamdan nasıl kurtulabilir? Ölümcül bir virüs tasarlayabilir, tarımsal gıda üretimini ve dağıtımını engelleyebilir, bir nükleer enerji santralini erimeye zorlayabilir ve savaşlar başlatabilir.

Gerçekten bilmiyoruz çünkü hepsi keşfedilmemiş bölge. Yüzlerce yıl önce haritacılar dünyanın keşfedilmemiş bölgelerine canavarlar çizerlerdi ve şu anda bizim yaptığımız da bir nevi bu.

Tüm bunlar kulağa umutsuz ve kaçınılmaz geliyorsa, Garrett öyle olmadığını söylüyor.

Şimdiye kadar yaptığı analizler ASI ve insanların aynı alanı işgal etmesine dayanıyor. Ancak çoklu gezegen statüsüne ulaşabilirsek, görünüm değişir.

Garrett şöyle yazıyor: "Örneğin, çok gezegenli bir biyolojik tür, farklı gezegenlerdeki bağımsız deneyimlerden faydalanarak hayatta kalma stratejilerini çeşitlendirebilir ve muhtemelen gezegene bağlı bir uygarlığın karşılaştığı tek noktalı başarısızlıktan kaçınabilir."

Riski birden fazla yıldızın etrafındaki birden fazla gezegene dağıtabilirsek, kendimizi ASI'nin olası en kötü sonuçlarına karşı tamponlayabiliriz.

"Bu dağıtılmış varoluş modeli, yedeklilik yaratarak biyolojik bir uygarlığın YZ kaynaklı felaketlere karşı direncini artırır" diye yazıyor.

Gelecekte insanların işgal edeceği gezegenlerden veya ileri karakollardan biri ASI teknolojik tekilliğinden sağ çıkamazsa, diğerleri hayatta kalabilir. Ve bundan ders çıkarabilirler.

Çoklu gezegen statüsü ASI'den kurtulmaktan daha fazlasını bile yapabilir. Onda ustalaşmamıza yardımcı olabilir. Garrett, YZ'yi kontrol altında tutarken onunla daha kapsamlı deneyler yapabileceğimiz durumlar hayal ediyor. İzole edilmiş bir asteroit ya da cüce gezegende, hapishanesinden kaçmak için gereken kaynaklara erişimi olmadan bizim emirlerimizi yerine getiren bir YZ hayal edin.

Garrett, "Bu, gelişmiş YZ'nin etkilerinin küresel imha riski olmadan incelenebileceği izole ortamlara olanak tanıyor" diye yazıyor.

Ancak burada bir muamma var. YZ gelişimi hızlanarak devam ederken, çok gezegenli olma girişimlerimiz hızlanmıyor.

Garrett, "YZ'nin hızlı ilerlemesi ile uzay teknolojisindeki daha yavaş ilerleme arasındaki eşitsizlik çok açık" diye yazıyor.

Aradaki fark, YZ'nin hesaplamalı ve bilgisel olması, ancak uzay yolculuğunun henüz nasıl üstesinden geleceğimizi bilmediğimiz çok sayıda fiziksel engel içermesidir. Kendi biyolojik doğamız uzay yolculuğunu kısıtlıyor, ancak YZ'yi kısıtlayan böyle bir engel yok.

Garrett, "YZ teorik olarak kendi yeteneklerini neredeyse fiziksel kısıtlamalar olmadan geliştirebilirken," diye yazıyor, "uzay yolculuğu enerji sınırlamaları, malzeme bilimi sınırları ve uzay ortamının sert gerçekleriyle mücadele etmek zorundadır."

Şimdilik, YZ bizim belirlediğimiz kısıtlamalar dahilinde çalışıyor. Ancak durum her zaman böyle olmayabilir. YZ'nin ne zaman ASI'ye dönüşebileceğini ya da dönüşüp dönüşemeyeceğini bilmiyoruz. Ama bu olasılığı göz ardı edemeyiz. Bu da bizi iç içe geçmiş iki sonuca götürüyor.

Eğer Garrett haklıysa, insanlık uzay yolculuğu konusunda daha gayretli çalışmalıdır. Çok zorlama görünebilir, ancak bilgili insanlar bunun doğru olduğunu biliyor: Dünya sonsuza kadar yaşanabilir olmayacak. Eğer uzaya açılmazsak insanlık burada kendi elimizle ya da doğanın eliyle yok olacak. Garrett'ın 200 yıllık tahmini buna sadece bir ünlem işareti koyuyor. Ay'a ve Mars'a ulaşmaya yeniden vurgu yapılması biraz umut veriyor.

İkinci sonuç, psikopatların tüm ulusların kontrolünü ele geçirebildiği ve savaş açmaya kararlı olduğu bir dünyada zor bir görev olan yapay zekayı yasallaştırmak ve yönetmekle ilgilidir.

Garrett, "Sektör paydaşları, siyasi karar alıcılar, bireysel uzmanlar ve hükümetleri halihazırda düzenlemenin gerekli olduğu konusunda uyarıyor olsa da, küresel olarak kabul edilebilir bir düzenleyici çerçeve oluşturmak zor olacak" diye yazıyor.

Zorlu olması durumu ancak tanımlıyor. İnsanlığın kendi içindeki çekişmeleri her şeyi daha da içinden çıkılmaz hale getiriyor. Ayrıca, ne kadar hızlı kılavuz geliştirirsek geliştirelim, ASI daha da hızlı değişebilir.

Garrett, "Pratik bir düzenleme olmadan, YZ'nin sadece bizim teknik uygarlığımızın değil, tüm teknik uygarlıkların gelecekteki gidişatı için büyük bir tehdit oluşturabileceğine inanmak için her türlü neden var" diye yazıyor.

Eğer böyle bir durumla karşılaşırsak, iş sıkıcı ve gündelik görünebilecek bir şeye gelebilir: mevzuat üzerinde çekişmek.

Garrett, "Evrende akıllı ve bilinçli yaşamın devamlılığı, bu tür uluslararası düzenleyici tedbirlerin ve teknolojik çabaların zamanında ve etkili bir şekilde uygulanmasına bağlı olabilir" diye yazıyor.

Bu yazı SCIENCEALERT’ de yayınlanmıştır.

Fizikist
Türkiye'nin Popüler Bilim Sitesi

0 yorum