“Kontrolden çıkmış bir yarış”
- Reklam -
Kâr hedefi gütmeyen Future of Life Enstitüsü tarafından yayınlanan ve Musk da dahil olmak üzere 1000’den fazla kişi tarafından imzalanan mektupta, bu tıp dizaynlar için ortak güvenlik protokolleri bağımsız uzmanlar tarafından geliştirilene, uygulanana ve denetlenene kadar gelişmiş yapay zeka çalışmalarına orta verme davetinde bulunuldu.
Mektupta, “Güçlü yapay zeka sistemleri, sırf tesirlerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir” vurgusu yapıldı. Yapay zeka laboratuvarlarının şu anda “hiç kimsenin – hatta yaratıcılarının bile – anlayamayacağı, varsayım edemeyeceği yahut muteber bir halde denetim edemeyeceği” makine öğrenme sistemlerini geliştirmek ve dağıtmak için “kontrolden çıkmış bir yarışa” kilitlendiği belirtiliyor.
“En az 6 ay orta verilmeli”
- Reklam -
Mektupta ayrıyeten Google ve Microsoft üzere teknoloji şirketlerinin yeni eserleri devreye sokmak için çabuk ettiği, güvenlik ve etik kavramlarını art planda tuttuğu da aktarılıyor. Bu ortada Future of Life sözcüsü Reuters’e OpenAI CEO’su Sam Altman’ın mektubu imzalamadığını söyledi. Öte yandan OpenAI’ın güvenlik standartlarını karşıladıklarından emin olmak için gelecekteki yapay zeka sistemlerinin “bağımsız olarak incelenmesi” gerektiğini belirtmişti. Özet olarak, yapay zekanın ortaya koyacağı sonuçları anlayana kadar araştırmaların yavaşlaması gerektiği vurgulanıyor.