Hesaplamalar Süper Akıllı Bir Yapay Zekayı Kontrol Etmenin İmkansız Olacağını Gösteriyor
Hesaplamalar Süper Akıllı Bir Yapay Zekayı Kontrol Etmenin İmkansız Olacağını Gösteriyor

Yapay zekanın insanlığı devirme fikri on yıllardır konuşuluyor. Ocak 2021'de bilim insanları üst düzey bir bilgisayar süper zekasını kontrol edip edemeyeceğimiz konusundaki kararlarını verdiler. Cevap ise neredeyse imkansız. Buradaki mesele şu ki, insan kavrayışının çok ötesinde bir süper zekayı kontrol etmek, analiz edebileceğimiz o süper zekanın bir simülasyonunu gerektirecektir. Ama idrak edemiyorsak böyle bir simülasyon yaratmamız mümkün değil.

2021 makalesinin yazarlarına göre, bir yapay zekanın ortaya çıkaracağı senaryoların türünü anlamazsak, 'insanlara zarar vermemek' gibi kurallar belirlenemez. Bir bilgisayar sistemi programcılarımızın kapsamının üzerinde bir düzeyde çalıştığında artık sınır koyamayız. Araştırmacılar, "Bir süper zeka, tipik olarak 'robot etiği' başlığı altında incelenenlerden temelde farklı bir sorun teşkil ediyor" diye yazdı. "Bunun nedeni, bir süper zekanın çok yönlü olması ve bu nedenle insanlar için potansiyel olarak anlaşılmaz olan hedeflere ulaşmak için potansiyel olarak çeşitli kaynakları harekete geçirme yeteneğine sahip olmasıdır.”

Takımın mantığının bir kısmı Alan Turing tarafından 1936'da ortaya atılan durma probleminden geliyor. Problem bir bilgisayar programının bir sonuca ve cevaba ulaşıp ulaşamayacağı (böylece durur) veya sonsuza kadar bir döngü bulmaya çalışıp çalışamayacağını bilmeye odaklanır. Turing'in akıllı bir matematikle kanıtladığı gibi, bazı belirli programlar için bunu bilsek de yazılabilecek her potansiyel program için bunu bilmemizi sağlayacak bir yol bulmak mantıksal olarak imkansız. Bu bizi süper akıllı bir durumda olası her bilgisayar programını aynı anda belleğinde tutabilecek olan yapay zekaya geri getiriyor. Yapay zekanın insanlara zarar vermesini ve dünyayı yok etmesini durdurmak için yazılmış herhangi bir program bir sonuca varabilir (ve durabilir) ya da sonuçsuz kalabilir. Her iki şekilde de kesinlikle emin olmamız matematiksel olarak imkansızdır, bu da kapsayıcı olmadığı anlamına gelir.

Almanya'daki Max-Planck İnsani Gelişme Enstitüsü'nden bilgisayar bilimcisi Iyad Rahwan, ocak ayında "Aslında bu, sınırlama algoritmasını kullanılamaz hale getiriyor" dedi. Yapay zekaya biraz etik öğretmenin ve ona dünyayı yok etmemesini söylemenin alternatifi - araştırmacıların söylediğine göre hiçbir algoritmanın kesinlikle emin olamayacağı bir şey - süper zekanın yeteneklerini sınırlamaktır. Örneğin internetin bazı bölümlerinden veya belirli ağlardan kesilebilir.

Son zamanlarda yapılan çalışma da bu fikri reddediyor ve yapay zekanın erişimini sınırlayacağını öne sürüyor. Eğer onu insanların kapsamı dışındaki sorunları çözmek için kullanmayacaksak neden yaratıyoruz? Yapay zeka ile ilerlemenin anlaşılmazlığı, kontrolümüz dışında bir süper zekanın ne zaman ortaya çıkacağını bilememek. Bu, gideceğimiz yönler hakkında bazı ciddi sorular sormaya başlamamız gerektiği anlamına geliyor.

Max-Planck İnsani Gelişme Enstitüsü'nden bilgisayar bilimcisi Manuel Cebrian, "Dünyayı kontrol eden süper akıllı bir makine kulağa bilim kurgu gibi geliyor. Ancak, geliştiricilerinin bile nasıl öğrendiklerini tam olarak anlayamadıkları, belirli önemli görevleri bağımsız olarak gerçekleştiren makineler zaten var. Bu nedenle, bunun bir noktada kontrol edilemez ve insanlık için tehlikeli hale gelip gelemeyeceği sorusu ortaya çıkıyor." dedi.

Araştırma, Yapay Zeka Araştırmaları Dergisi'nde yayınlandı.

 

Kaynak:

https://www.sciencealert.com/calculations-suggest-it-ll-be-impossible-to-control-a-super-intelligent-ai 

https://www.forbes.com/sites/tomtaulli/2021/08/27/how-to-sell-ai/?sh=386629ad3177 

Fizikist
Türkiye'nin Popüler Bilim Sitesi

0 yorum