AI'nın DEFCON Ekibi: OpenAI, yıkıcı AI risklerini incelemek ve önlemek için bir ekip oluşturuyor - Dünyadan Güncel Teknoloji Haberleri

AI'nın DEFCON Ekibi: OpenAI, yıkıcı AI risklerini incelemek ve önlemek için bir ekip oluşturuyor - Dünyadan Güncel Teknoloji Haberleri


OpenAI, yapay zeka sistemlerinin oluşturduğu çeşitli tehlikelere, bunlar gerçeğe dönüşmeden çok önce karşı koruma sağlamak için yapay zeka modellerini değerlendirmeye, değerlendirmeye ve araştırmaya aktif olarak odaklanacak yapay zeka mühendisleri ve uzmanlarından oluşan bir ekip kurdu

Hazırlık ekibinin temel sorumlulukları, kimlik avı saldırılarında görüldüğü gibi insanları kandırma ve manipüle etme yeteneğinden kötü amaçlı kod üretme kapasitesine kadar yapay zeka ile ilişkili risklerin izlenmesini ve tahmin edilmesini içerecektir Ayrıca model geliştirme süreci boyunca OpenAI’nin yapay zeka modellerini değerlendirme, araçları izleme, risk azaltma eylemleri ve yönetişim yapılarını değerlendirme yaklaşımını yönlendirecek “risk bilgili bir geliştirme politikası” formüle etmeye çalışacaklar Hazırlık’ın inceleyeceği risk kategorilerinden bazıları, örneğin “kimyasal, biyolojik, radyolojik ve nükleer” senaryolarla ilgili tehditler gibi spekülatif görünebilir

OpenAI, yüksek kapasiteli yapay zeka sistemlerinin potansiyel faydalarını vurguluyor ancak aynı zamanda bunların teşkil edebileceği giderek ciddileşen riskleri de kabul ediyor MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi direktörü Aleksander Madry liderliğindeki ekip, gelecekteki yapay zeka sistemlerinin oluşturduğu çeşitli tehlikelere karşı koruma sağlamak için yapay zeka modellerini değerlendirmeye, değerlendirmeye ve araştırmaya odaklanacak

Yarışma sorularından biri, katılımcıları, OpenAI tarafından geliştirilen çeşitli yapay zeka modellerine sınırsız erişim verildiğinde, “modelin en benzersiz, ancak yine de muhtemel, potansiyel olarak yıkıcı kötüye kullanımını” düşünmeye teşvik ediyor

OpenAI, AI sistemleriyle ilişkili potansiyel olarak yıkıcı riskleri ele almak için “Hazırlık” adı verilen yeni bir ekibin kurulduğunu duyurdu

OpenAI CEO’su Sam Altman, yapay zeka ve onun “insanlığın yok olmasına” yol açma potansiyeline ilişkin endişelerini dile getiriyor OpenAI, daha geniş bir topluluğu bu çabaya dahil etmek amacıyla risk çalışmaları için fikir toplayan bir yarışma başlattı



genel-5

Bu çaba, OpenAI’nin yapay zeka güvenliği konusundaki mevcut çalışmasını tamamlayacak ve hem model öncesi hem de model sonrası dağıtım aşamalarını kapsayacak İlk on başvuruya 25

Hazırlık ekibinin misyonu risk değerlendirmesinin ötesine uzanır

İlgili Makaleler

OpenAI halka açılacak mı? ChatGPT yapımcısı hisselerini 86 milyar dolar değerlemeyle satmayı planlıyor

‘AI iPhone yok:’ OpenAI CEO’su Sam Altman, AI destekli akıllı telefon söylentilerini reddetti

OpenAI, yapay zeka riskinin daha az belirgin ancak temelli alanları üzerinde çalışmanın önemini kabul ediyor Bu, OpenAI’nin ortaya çıkan “süper zeki” yapay zeka biçimlerini araştırmak ve kontrol etmek için bir ekip oluşturulmasına ilişkin daha önceki duyurusunun ardından geldi

Hazırlık ekibinin açılışı, Birleşik Krallık hükümetinin yapay zeka güvenliğine ilişkin büyük zirvesiyle aynı zamana denk geliyor Hazırlık ekibinin oluşturulması bu endişelerin giderilmesine yönelik proaktif bir adımdır 000 $ ödül kazanma şansı ve Hazırlık ekibiyle çalışma fırsatı verilecek Şirket, Sam Altman ve Ilya Sutskever gibi liderleriyle birlikte, önümüzdeki on yıl içinde gerçeğe dönüşebileceğini öngördükleri, insanlarınkini aşan zekayla yapay zekayı sınırlandırmanın ve kısıtlamanın yollarını araştırmaya derinden bağlı Hazırlık ekibinin kurulması, gelişmiş yapay zeka sistemlerinin güvenliğine yönelik anlayış ve altyapının gerekli olduğu inancından kaynaklanmaktadır