Yeni bir rapor, yapay zekanın insanlık üzerinde üstünlük sağlayabileceği ve Darwinci evrim kuralları uyarınca “felaket” riskler oluşturabileceği konusunda uyarıyor.
Yazar ve yapay zeka araştırmacısı Dan Hendrycks, yeni makalesinde, doğal seçilim yoluyla evrimin yapay zekanın hayatta kalmaya çabalarken “bencil davranışlara” yol açabileceğini öne sürüyor. “Doğal Seçilim, Yapay Zekaları İnsanlara Tercih Ediyor.”
SAI Güvenlik Merkezi direktörü Hendrycks raporda, “Doğal seçilimin yapay zeka ajanlarını insan çıkarlarına aykırı hareket etmeye teşvik ettiğini savunuyoruz. Argümanımız iki gözleme dayanıyor” dedi. “Birincisi, doğal seçilim yapay zeka gelişiminde baskın bir güç olabilir… İkincisi, doğal seçilim yoluyla evrim bencil davranışlara yol açma eğilimindedir.”
Rapor, dünyanın dört bir yanındaki teknoloji uzmanları ve liderlerin, yeterli güvenlik önlemleri olduğunu iddia ettikleri şeyler olmadan yapay zekanın gücünü ne kadar hızlı genişlettiğine dair alarm vermesiyle geldi.
Geleneksel doğal seçilim tanımına göre, çevrelerine en hızlı şekilde uyum sağlayan hayvanlar, insanlar ve diğer organizmaların hayatta kalma şansı daha yüksektir. Hendrycks, makalesinde milyarlarca yıldır “evrimin yaşamın gelişiminin itici gücü olduğunu” inceliyor ve “Darwin mantığının” yapay zeka için de geçerli olabileceğini savunuyor.
Hendrycks, “Şirketler ve ordular arasındaki rekabet baskısı, insan rollerini otomatikleştiren, başkalarını aldatan ve güç kazanan yapay zeka ajanlarının ortaya çıkmasına neden olacak. Bu tür ajanlar, insanlarınkini aşan bir zekaya sahipse, bu, insanlığın geleceğinin kontrolünü kaybetmesine yol açabilir.” .
TECH CEO’SU, UZMANLAR ALTI AYLIK DURAKLAMANIN ARKASINDA TOPLANIRKEN AI RİSKLERİNİN ‘İNSANIN YOK OLMASINA’ YOL AÇABİLECEĞİNİ UYARDI
Yeni bir rapor, yapay zekanın insanlık üzerinde üstünlük sağlayabileceği ve Darwinci evrim kuralları uyarınca “felaket” riskler oluşturabileceği konusunda uyarıyor. (Lionel Bonaventure / Getty Images / Dosya aracılığıyla AFP)
AI teknolojisinin daha ucuz ve daha yetenekli hale geldiğini ve şirketlerin yönetim amaçları veya iletişim için teknolojiye giderek daha fazla güveneceğini söyledi. Rapora göre, insanların e-posta taslakları için yapay zekaya güvenmesiyle başlayacak olan şey, sonunda yapay zekaya dönüşecek ve tipik olarak politikacılar ve CEO’lar için ayrılmış “üst düzey stratejik kararları” devralacak ve sonunda “çok az gözetim” ile çalışacak.
Yapay zeka araştırmacısı, insanlar ve şirketler yapay zekayı farklı hedeflerle görevlendirdikçe, bunun “yapay zeka popülasyonunda geniş bir varyasyona” yol açacağını savunuyor. Hendrycks, bir şirketin, görevi tamamlarken yasanın çiğnenmemesi gerektiğine dair bir yan kısıtlama ile “yeni bir pazarlama kampanyası planlamak” için yapay zeka için bir hedef belirleyebileceğine dair bir örnek kullanıyor. Başka bir şirket de yapay zekayı yeni bir pazarlama kampanyası oluşturmaya çağırabilir, ancak yalnızca “yasaları çiğneyerek yakalanmamak” yan kısıtlamasıyla.
DİNLENMEYEN YZ TEKNOLOJİSİ RİSKLERİ YANLIŞ BİLGİNİN YAYILMASI, POLİTİKA YAPICILARIN KURALLARA UYMASINI GEREKTİRİR: UZMANLAR
Gazeteye göre, daha zayıf yan kısıtlamalara sahip yapay zeka, önlerindeki görev için daha fazla seçeneğe sahip olduğu için “genellikle daha güçlü yan kısıtlamalara sahip olanlardan daha iyi performans gösterecek”. Kendini yaymada en etkili olan yapay zeka teknolojisi bu nedenle, Hendrycks tarafından “bencillik” olarak tanımlanan “istenmeyen özelliklere” sahip olacaktır. Makale, AI’ların potansiyel olarak bencil hale gelmesinin “bilinçli bencil niyeti değil, bencil davranışı ifade ettiğini” özetliyor.
Yapay zeka araştırmacısı, insanlar ve şirketler yapay zekayı farklı hedeflerle görevlendirdikçe, bunun “yapay zeka popülasyonunda geniş bir varyasyona” yol açacağını savunuyor. (Getty Images / Dosya aracılığıyla Gabby Jones / Bloomberg)
Şirketler veya ordular veya hükümetler arasındaki rekabet, varlıkları rakiplerini yenmek için en etkili AI programlarını almaya teşvik eder ve bu teknoloji büyük olasılıkla “aldatıcı, güç peşinde koşan ve zayıf ahlaki kısıtlamaları takip eden” olacaktır.
ELON MUSK, APPLE KURUCUSU, DİĞER TEKNOLOJİ UZMANLARI “DEV YAPAY ZEKA DENEYLERİNE” DURAKLATMA ÇAĞRISI: “TEHLİKELİ YARIŞ”
Makalede, “Yapay zeka ajanları insan psikolojisini ve davranışını anlamaya başladıkça, insanları manipüle etme veya aldatma yeteneğine sahip hale gelebilirler” diyen makale, “en başarılı ajanların hedeflerine ulaşmak için manipüle edeceğini ve aldatacağını” belirtiyor.
Charles Darwin (Kültür Kulübü / Getty Images)
Hendrycks, yapay zeka güvenliği üzerine araştırmaları desteklemek; yapay zekaya önümüzdeki yıllarda herhangi bir “hak” vermemek veya onu hak almaya değer kılacak yapay zeka yaratmak; şirketleri ve ulusları yapay zekanın oluşturabileceği tehlikeleri kabul etmeye ve “rekabetçi baskıları söndürmek için çok taraflı işbirliğine” girmeye teşvik ediyor.
YENİ AI YÜKSELTME İNSANLARDAN FARKLI OLABİLİR: UZMAN
“Bir noktada, AI’lar insanlardan daha uygun olacak ve bu, uzun vadede en uygun olanın hayatta kalması dinamiği ortaya çıkabileceğinden, bizim için felaket olabilir. AI’lar, insanları çok iyi bir şekilde geride bırakabilir ve hayatta kalanlar olabilir.” devletler.
“Belki de özgecil YZ’ler en uygun olanlar olacak ya da insanlar hangi YZ’lerin en uygun olduğunu sonsuza kadar kontrol edecek. Ne yazık ki, bu olasılıklar varsayılan olarak olası değil. İddia ettiğimiz gibi, YZ’ler muhtemelen bencil olacak. Ayrıca zindeliği kontrol etmede önemli zorluklar olacak. belirgin kusurları olan ve rekabetin ve bencil yapay zekanın yoğun baskısı altında kalacak güvenlik mekanizmalarıyla.”
TEKNOLOJİ DEVİ SAM ALTMAN GÜÇLÜ YZ ARAŞTIRMALARINI NÜKLEER SAVAŞIN ŞAFAĞIYLA KIYASLIYOR: RAPOR
Yapay zeka yeteneklerinin hızlı bir şekilde genişletilmesi, yıllardır dünya çapında ilgi odağı olmuştur. (Reuters / Dado Ruvic / İllüstrasyon / Dosya)
Yapay zeka yeteneklerinin hızlı bir şekilde genişletilmesi, yıllardır dünya çapında ilgi odağı olmuştur. Daha geçen ay binlerce teknoloji uzmanı, üniversite profesörü ve diğerleri, politika belirleyicilerin ve laboratuvar liderlerinin “gelişmiş yapay zeka için bir dizi paylaşılan güvenlik protokolü geliştirip uygulayabilmeleri için” laboratuvarlardaki yapay zeka araştırmalarına ara verilmesi çağrısında bulunan açık bir mektubu imzaladıklarında yapay zeka konusundaki endişelerin altı çizildi. tasarım.”
Kâr amacı gütmeyen Future of Life tarafından ortaya atılan ve aşağıdaki liderler tarafından imzalanan açık mektup, “Kapsamlı araştırmaların gösterdiği ve üst düzey AI laboratuvarları tarafından kabul edildiği üzere, insan-rekabetçi zekaya sahip AI sistemleri, toplum ve insanlık için büyük riskler oluşturabilir.” Elon Musk ve Apple’ın kurucu ortağı Steve Wozniak.
AI zaten hem ulusal hem de uluslararası düzeyde bir miktar geri itme ile karşı karşıya kaldı. Daha geçen hafta İtalya, OpenAI’nin son derece popüler AI sohbet robotu ChatGPT’yi gizlilik endişeleri nedeniyle yasaklayan dünyadaki ilk ülke oldu. New York City Devlet Okulları ve Los Angeles Birleşik Okul Bölgesi gibi bazı okul bölgeleri de aynı OpenAI programını kopya çekme endişeleri nedeniyle yasakladı.
HABERLER SUNULDU
Yapay zeka, potansiyel riskleri konusunda alarm veren araştırmacılar nedeniyle daha fazla incelemeyle karşı karşıya kalırken, diğer teknoloji liderleri ve uzmanlar, Çin gibi ABD’li düşmanların en gelişmiş programı oluşturmaması için yapay zeka teknolojisinin yenilik adına devam etmesi için baskı yapıyor.
Yazar ve yapay zeka araştırmacısı Dan Hendrycks, yeni makalesinde, doğal seçilim yoluyla evrimin yapay zekanın hayatta kalmaya çabalarken “bencil davranışlara” yol açabileceğini öne sürüyor. “Doğal Seçilim, Yapay Zekaları İnsanlara Tercih Ediyor.”
SAI Güvenlik Merkezi direktörü Hendrycks raporda, “Doğal seçilimin yapay zeka ajanlarını insan çıkarlarına aykırı hareket etmeye teşvik ettiğini savunuyoruz. Argümanımız iki gözleme dayanıyor” dedi. “Birincisi, doğal seçilim yapay zeka gelişiminde baskın bir güç olabilir… İkincisi, doğal seçilim yoluyla evrim bencil davranışlara yol açma eğilimindedir.”
Rapor, dünyanın dört bir yanındaki teknoloji uzmanları ve liderlerin, yeterli güvenlik önlemleri olduğunu iddia ettikleri şeyler olmadan yapay zekanın gücünü ne kadar hızlı genişlettiğine dair alarm vermesiyle geldi.
Geleneksel doğal seçilim tanımına göre, çevrelerine en hızlı şekilde uyum sağlayan hayvanlar, insanlar ve diğer organizmaların hayatta kalma şansı daha yüksektir. Hendrycks, makalesinde milyarlarca yıldır “evrimin yaşamın gelişiminin itici gücü olduğunu” inceliyor ve “Darwin mantığının” yapay zeka için de geçerli olabileceğini savunuyor.
Hendrycks, “Şirketler ve ordular arasındaki rekabet baskısı, insan rollerini otomatikleştiren, başkalarını aldatan ve güç kazanan yapay zeka ajanlarının ortaya çıkmasına neden olacak. Bu tür ajanlar, insanlarınkini aşan bir zekaya sahipse, bu, insanlığın geleceğinin kontrolünü kaybetmesine yol açabilir.” .
TECH CEO’SU, UZMANLAR ALTI AYLIK DURAKLAMANIN ARKASINDA TOPLANIRKEN AI RİSKLERİNİN ‘İNSANIN YOK OLMASINA’ YOL AÇABİLECEĞİNİ UYARDI
Yeni bir rapor, yapay zekanın insanlık üzerinde üstünlük sağlayabileceği ve Darwinci evrim kuralları uyarınca “felaket” riskler oluşturabileceği konusunda uyarıyor. (Lionel Bonaventure / Getty Images / Dosya aracılığıyla AFP)
AI teknolojisinin daha ucuz ve daha yetenekli hale geldiğini ve şirketlerin yönetim amaçları veya iletişim için teknolojiye giderek daha fazla güveneceğini söyledi. Rapora göre, insanların e-posta taslakları için yapay zekaya güvenmesiyle başlayacak olan şey, sonunda yapay zekaya dönüşecek ve tipik olarak politikacılar ve CEO’lar için ayrılmış “üst düzey stratejik kararları” devralacak ve sonunda “çok az gözetim” ile çalışacak.
Yapay zeka araştırmacısı, insanlar ve şirketler yapay zekayı farklı hedeflerle görevlendirdikçe, bunun “yapay zeka popülasyonunda geniş bir varyasyona” yol açacağını savunuyor. Hendrycks, bir şirketin, görevi tamamlarken yasanın çiğnenmemesi gerektiğine dair bir yan kısıtlama ile “yeni bir pazarlama kampanyası planlamak” için yapay zeka için bir hedef belirleyebileceğine dair bir örnek kullanıyor. Başka bir şirket de yapay zekayı yeni bir pazarlama kampanyası oluşturmaya çağırabilir, ancak yalnızca “yasaları çiğneyerek yakalanmamak” yan kısıtlamasıyla.
DİNLENMEYEN YZ TEKNOLOJİSİ RİSKLERİ YANLIŞ BİLGİNİN YAYILMASI, POLİTİKA YAPICILARIN KURALLARA UYMASINI GEREKTİRİR: UZMANLAR
Gazeteye göre, daha zayıf yan kısıtlamalara sahip yapay zeka, önlerindeki görev için daha fazla seçeneğe sahip olduğu için “genellikle daha güçlü yan kısıtlamalara sahip olanlardan daha iyi performans gösterecek”. Kendini yaymada en etkili olan yapay zeka teknolojisi bu nedenle, Hendrycks tarafından “bencillik” olarak tanımlanan “istenmeyen özelliklere” sahip olacaktır. Makale, AI’ların potansiyel olarak bencil hale gelmesinin “bilinçli bencil niyeti değil, bencil davranışı ifade ettiğini” özetliyor.
Yapay zeka araştırmacısı, insanlar ve şirketler yapay zekayı farklı hedeflerle görevlendirdikçe, bunun “yapay zeka popülasyonunda geniş bir varyasyona” yol açacağını savunuyor. (Getty Images / Dosya aracılığıyla Gabby Jones / Bloomberg)
Şirketler veya ordular veya hükümetler arasındaki rekabet, varlıkları rakiplerini yenmek için en etkili AI programlarını almaya teşvik eder ve bu teknoloji büyük olasılıkla “aldatıcı, güç peşinde koşan ve zayıf ahlaki kısıtlamaları takip eden” olacaktır.
ELON MUSK, APPLE KURUCUSU, DİĞER TEKNOLOJİ UZMANLARI “DEV YAPAY ZEKA DENEYLERİNE” DURAKLATMA ÇAĞRISI: “TEHLİKELİ YARIŞ”
Makalede, “Yapay zeka ajanları insan psikolojisini ve davranışını anlamaya başladıkça, insanları manipüle etme veya aldatma yeteneğine sahip hale gelebilirler” diyen makale, “en başarılı ajanların hedeflerine ulaşmak için manipüle edeceğini ve aldatacağını” belirtiyor.
Charles Darwin (Kültür Kulübü / Getty Images)
Hendrycks, yapay zeka güvenliği üzerine araştırmaları desteklemek; yapay zekaya önümüzdeki yıllarda herhangi bir “hak” vermemek veya onu hak almaya değer kılacak yapay zeka yaratmak; şirketleri ve ulusları yapay zekanın oluşturabileceği tehlikeleri kabul etmeye ve “rekabetçi baskıları söndürmek için çok taraflı işbirliğine” girmeye teşvik ediyor.
YENİ AI YÜKSELTME İNSANLARDAN FARKLI OLABİLİR: UZMAN
“Bir noktada, AI’lar insanlardan daha uygun olacak ve bu, uzun vadede en uygun olanın hayatta kalması dinamiği ortaya çıkabileceğinden, bizim için felaket olabilir. AI’lar, insanları çok iyi bir şekilde geride bırakabilir ve hayatta kalanlar olabilir.” devletler.
“Belki de özgecil YZ’ler en uygun olanlar olacak ya da insanlar hangi YZ’lerin en uygun olduğunu sonsuza kadar kontrol edecek. Ne yazık ki, bu olasılıklar varsayılan olarak olası değil. İddia ettiğimiz gibi, YZ’ler muhtemelen bencil olacak. Ayrıca zindeliği kontrol etmede önemli zorluklar olacak. belirgin kusurları olan ve rekabetin ve bencil yapay zekanın yoğun baskısı altında kalacak güvenlik mekanizmalarıyla.”
TEKNOLOJİ DEVİ SAM ALTMAN GÜÇLÜ YZ ARAŞTIRMALARINI NÜKLEER SAVAŞIN ŞAFAĞIYLA KIYASLIYOR: RAPOR
Yapay zeka yeteneklerinin hızlı bir şekilde genişletilmesi, yıllardır dünya çapında ilgi odağı olmuştur. (Reuters / Dado Ruvic / İllüstrasyon / Dosya)
Yapay zeka yeteneklerinin hızlı bir şekilde genişletilmesi, yıllardır dünya çapında ilgi odağı olmuştur. Daha geçen ay binlerce teknoloji uzmanı, üniversite profesörü ve diğerleri, politika belirleyicilerin ve laboratuvar liderlerinin “gelişmiş yapay zeka için bir dizi paylaşılan güvenlik protokolü geliştirip uygulayabilmeleri için” laboratuvarlardaki yapay zeka araştırmalarına ara verilmesi çağrısında bulunan açık bir mektubu imzaladıklarında yapay zeka konusundaki endişelerin altı çizildi. tasarım.”
Kâr amacı gütmeyen Future of Life tarafından ortaya atılan ve aşağıdaki liderler tarafından imzalanan açık mektup, “Kapsamlı araştırmaların gösterdiği ve üst düzey AI laboratuvarları tarafından kabul edildiği üzere, insan-rekabetçi zekaya sahip AI sistemleri, toplum ve insanlık için büyük riskler oluşturabilir.” Elon Musk ve Apple’ın kurucu ortağı Steve Wozniak.
AI zaten hem ulusal hem de uluslararası düzeyde bir miktar geri itme ile karşı karşıya kaldı. Daha geçen hafta İtalya, OpenAI’nin son derece popüler AI sohbet robotu ChatGPT’yi gizlilik endişeleri nedeniyle yasaklayan dünyadaki ilk ülke oldu. New York City Devlet Okulları ve Los Angeles Birleşik Okul Bölgesi gibi bazı okul bölgeleri de aynı OpenAI programını kopya çekme endişeleri nedeniyle yasakladı.
HABERLER SUNULDU
Yapay zeka, potansiyel riskleri konusunda alarm veren araştırmacılar nedeniyle daha fazla incelemeyle karşı karşıya kalırken, diğer teknoloji liderleri ve uzmanlar, Çin gibi ABD’li düşmanların en gelişmiş programı oluşturmaması için yapay zeka teknolojisinin yenilik adına devam etmesi için baskı yapıyor.