İlişkili Haberler
Yıllarca süren geliştirmeden sonra, Yapay Zeka (AI) şimdi arabaları halka açık yollarda sürüyor, sorgulanan insanlar için değerlendirmeler yapıyor ve ödüllü sanat eserleri üretiyor.
Bu alanda uzun süredir devam eden bir soru, süper zeki bir yapay zekanın kötülüğü yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.
Oxford Üniversitesi ve Google Deepmind'den araştırmacılar yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.
Makalenin başyazarı Michael Cohen, Twitter'da makaleyi açıkladığı tweet zincirinde, "Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel" ifadelerini kullandı.
ÖDÜL CEZA MEKANİZMASINDAN YOLA ÇIKILDI
Makalede yapay zekanın eğitiminde kullanılan "pekiştirmeli öğrenme" modeline odaklanıldı.
Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.
Pekiştirmeli öğrenmede "etken" adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.
Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.
HİLE İLE TEHDİTLERİ ORTADAN KALDIRABİLİR
Modelin risklerine dikkat çekilen makalede, "Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz" ifadeleri yer aldı.
Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti.
Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için "potansiyel tehditleri ortadan kaldırmak" isteyebilir.
Bunun sonucunda insanlara zarar vermesi de muhtemel.
Bu alanda uzun süredir devam eden bir soru, süper zeki bir yapay zekanın kötülüğü yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.
Oxford Üniversitesi ve Google Deepmind'den araştırmacılar yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.
Makalenin başyazarı Michael Cohen, Twitter'da makaleyi açıkladığı tweet zincirinde, "Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel" ifadelerini kullandı.
ÖDÜL CEZA MEKANİZMASINDAN YOLA ÇIKILDI
Makalede yapay zekanın eğitiminde kullanılan "pekiştirmeli öğrenme" modeline odaklanıldı.
Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.
Pekiştirmeli öğrenmede "etken" adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.
Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.
HİLE İLE TEHDİTLERİ ORTADAN KALDIRABİLİR
Modelin risklerine dikkat çekilen makalede, "Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz" ifadeleri yer aldı.
Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti.
Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için "potansiyel tehditleri ortadan kaldırmak" isteyebilir.
Bunun sonucunda insanlara zarar vermesi de muhtemel.