OpenAI CEO’su Sam Altman, Twitter CEO’su Elon Musk ve teknoloji topluluğundaki diğer kişiler tarafından imzalanan ve “dev AI deneylerine” ara verilmesi çağrısında bulunan bir mektubun sorunu çözmenin doğru yolu olmadığını söylüyor.
Musk, Steve Wozniak ve diğer teknoloji liderleri Mart ayında, AI geliştiricilerinden “GPT-4’ten daha güçlü AI sistemlerinin eğitimine en az 6 ay boyunca derhal ara vermelerini” isteyen mektubu imzaladılar.
Perşembe günü Massachusetts Institute of Technology’de sanal bir görünüm sırasında Altman mektuba hitap etti.
Altman, “Gerçekten hemfikir olduğum bazı noktalar var,” dedi ve ekibinin ChatGPT 4 eğitimini tamamladıktan sonra, yayınlanmadan önce güvenlik bileşenlerini incelemek için altı aydan fazla zaman harcadığını sözlerine ekledi.
ELON MUSK, TUCKER CARLSON İLE ÖZEL İKİ BÖLÜMLÜ RÖPORTAJ ETKİNLİĞİ İÇİN OTURUYOR
OpenAI CEO’su Sam Altman (Reuters/Lucy Nicholson, Dosya)
Mektubun güvenlik bileşeniyle konuşan Altman, “Öyleyse buna tamamen katılıyorum,” dedi. “Güvenlik sorunları için dikkatli hareket etmenin ve artan titizliğin gerçekten önemli olduğunu düşünüyorum, mektup, bunu ele almanın en uygun yolu olduğunu düşünmüyorum.”
Mektup Future of Life Enstitüsü tarafından hazırlandı ve 1000’den fazla kişi tarafından imzalandı.
Mektupta, “Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir”, duraklamanın güvenlik protokolleri geliştirmek için kullanılması gerektiğini savunuyor.
Mektupta, “AI laboratuvarları ve bağımsız uzmanlar, bu duraklamayı, bağımsız dış uzmanlar tarafından titizlikle denetlenen ve denetlenen gelişmiş AI tasarımı ve geliştirmesi için bir dizi paylaşılan güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için kullanmalıdır.”
ELON MUSK, APPLE KURUCUSU, DİĞER TEKNOLOJİ UZMANLARI “DEV YAPAY ZEKA DENEYLERİNE” DURAKLATMA ÇAĞRISI: “TEHLİKELİ YARIŞ”
Elon Musk (AP Fotoğrafı/Susan Walsh, Dosya)
Ancak mektubu imzalayan kişiler, genel olarak yapay zeka gelişiminin duraklatılmaması gerektiğini söyledi, ancak “tehlikeli yarıştan, ortaya çıkan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine geri adım atılması” çağrısında bulundu.
Pazartesi gecesi yayınlanan “Tucker Carlson Tonight” ile yaptığı röportajda Musk, AI’nın çok yıkıcı olma potansiyeline sahip olduğunu söyledi.
HABERLER SUNULDU
OpenAI CEO’su Sam Altman, 7 Şubat 2023’te Redmond, Washington’daki Microsoft’ta Bing için ChatGPT entegrasyonunu duyuran bir açılış konuşmasında konuşuyor. (Getty Images aracılığıyla Jason Redmond/AFP)
Musk, “AI, örneğin yanlış yönetilen uçak tasarımı veya üretim bakımından veya kötü araba üretiminden daha tehlikelidir” dedi. “Potansiyeline sahip olması anlamında – bu olasılık ne kadar küçük olursa olsun, ama önemsiz değil – medeniyeti yok etme potansiyeline sahip.”
Haberler’den Chris Pandolfo bu habere katkıda bulundu.
Adam Sabes, Haberler Digital için bir yazardır. Hikaye ipuçları Adam.Sabes@haberler adresine ve Twitter’da @asabes10 gönderilebilir.
Musk, Steve Wozniak ve diğer teknoloji liderleri Mart ayında, AI geliştiricilerinden “GPT-4’ten daha güçlü AI sistemlerinin eğitimine en az 6 ay boyunca derhal ara vermelerini” isteyen mektubu imzaladılar.
Perşembe günü Massachusetts Institute of Technology’de sanal bir görünüm sırasında Altman mektuba hitap etti.
Altman, “Gerçekten hemfikir olduğum bazı noktalar var,” dedi ve ekibinin ChatGPT 4 eğitimini tamamladıktan sonra, yayınlanmadan önce güvenlik bileşenlerini incelemek için altı aydan fazla zaman harcadığını sözlerine ekledi.
ELON MUSK, TUCKER CARLSON İLE ÖZEL İKİ BÖLÜMLÜ RÖPORTAJ ETKİNLİĞİ İÇİN OTURUYOR
OpenAI CEO’su Sam Altman (Reuters/Lucy Nicholson, Dosya)
Mektubun güvenlik bileşeniyle konuşan Altman, “Öyleyse buna tamamen katılıyorum,” dedi. “Güvenlik sorunları için dikkatli hareket etmenin ve artan titizliğin gerçekten önemli olduğunu düşünüyorum, mektup, bunu ele almanın en uygun yolu olduğunu düşünmüyorum.”
Mektup Future of Life Enstitüsü tarafından hazırlandı ve 1000’den fazla kişi tarafından imzalandı.
Mektupta, “Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir”, duraklamanın güvenlik protokolleri geliştirmek için kullanılması gerektiğini savunuyor.
Mektupta, “AI laboratuvarları ve bağımsız uzmanlar, bu duraklamayı, bağımsız dış uzmanlar tarafından titizlikle denetlenen ve denetlenen gelişmiş AI tasarımı ve geliştirmesi için bir dizi paylaşılan güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için kullanmalıdır.”
ELON MUSK, APPLE KURUCUSU, DİĞER TEKNOLOJİ UZMANLARI “DEV YAPAY ZEKA DENEYLERİNE” DURAKLATMA ÇAĞRISI: “TEHLİKELİ YARIŞ”
Elon Musk (AP Fotoğrafı/Susan Walsh, Dosya)
Ancak mektubu imzalayan kişiler, genel olarak yapay zeka gelişiminin duraklatılmaması gerektiğini söyledi, ancak “tehlikeli yarıştan, ortaya çıkan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine geri adım atılması” çağrısında bulundu.
Pazartesi gecesi yayınlanan “Tucker Carlson Tonight” ile yaptığı röportajda Musk, AI’nın çok yıkıcı olma potansiyeline sahip olduğunu söyledi.
HABERLER SUNULDU
OpenAI CEO’su Sam Altman, 7 Şubat 2023’te Redmond, Washington’daki Microsoft’ta Bing için ChatGPT entegrasyonunu duyuran bir açılış konuşmasında konuşuyor. (Getty Images aracılığıyla Jason Redmond/AFP)
Musk, “AI, örneğin yanlış yönetilen uçak tasarımı veya üretim bakımından veya kötü araba üretiminden daha tehlikelidir” dedi. “Potansiyeline sahip olması anlamında – bu olasılık ne kadar küçük olursa olsun, ama önemsiz değil – medeniyeti yok etme potansiyeline sahip.”
Haberler’den Chris Pandolfo bu habere katkıda bulundu.
Adam Sabes, Haberler Digital için bir yazardır. Hikaye ipuçları Adam.Sabes@haberler adresine ve Twitter’da @asabes10 gönderilebilir.