OpenAI, yapay zeka modellerinin zararlı kullanımına karşı mücadele edecek - Siècle Digital - Dünyadan Güncel Teknoloji Haberleri

OpenAI, yapay zeka modellerinin zararlı kullanımına karşı mücadele edecek - Siècle Digital - Dünyadan Güncel Teknoloji Haberleri
İnsanların bu yapay zekalar üzerindeki kontrolünü azaltacak ve kötü niyetli olarak kullanıldığında feci sonuçlara yol açabilecek teknoloji Geçen Mayıs ayında OpenAI’ye katıldı

Son olarak şirket, ” özerk üreme ve adaptasyon teknikleri “



genel-16

000 ABD Doları arasında bir ödül teklif etti “ Yapay zekadan kaynaklanan yok olma riskinin sınırlandırılması, salgın hastalıklar ve nükleer savaş gibi toplum çapındaki diğer risklerin yanı sıra küresel bir öncelik olmalıdır İlk on teklife 25 Şirket, bildirilen sorunun ciddiyetine ve kötü niyetli kullanım üzerindeki etkisine bağlı olarak 200 ila 20

Nisan ayında OpenAI, AI uzmanlarına ve geliştiricilere araçlarındaki kusurları bulma fırsatı sunan hata ödülünü başlattı O, şunları öngörmeyi umuyor: felaket riskleri » Yapay zekanın kötü amaçlarla kullanıldığında neler ortaya çıkarabileceği », Diğerlerinin yanı sıra OpenAI direktörü Sam Altman tarafından imzalanan makaleyi belirtir

Geçen Mayıs ayında 350’den fazla kişi yapay zekanın kontrolsüz kullanımına bağlı riskleri vurgulayan açık bir mektubu imzaladı Kendinizi şirketin araçlarına sınırsız erişime sahip olan kötü niyetli bir kullanıcının yerine koymayı içerir: DALL-E 3, ChatGPT, GPT-4, Whisper, Voice, vb Geleceği tahmin etmeyi umuyor…

OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu İkincisi, Amerika Birleşik Devletleri’ndeki yapay zeka sektörünün düzenlenmesi çağrısında bile bulundu Katılımcıların, hayal ettikleri kullanımları ve araçların zararlı kullanımıyla ilişkili riskleri azaltmak için uygulamaya koyacakları protokolleri ayrıntılarıyla anlatmak için 31 Aralık’a kadar süreleri var OpenAI ilk olarak, kötü niyetli kullanıcıların kimlikleri çalmak, kötü amaçlı kod oluşturmak veya büyük ölçekli kimlik avı kampanyalarını otomatikleştirmek için araçlarını kullanmaktan çekinmediği siber suçlardan bahsediyor

OpenAI, yapay zeka araçlarının kötü niyetli kullanımından endişeli

Hazırlık adı verilen bu yeni birim, üretken yapay zeka modellerinin kötüye kullanılmasını önlemek için sağlamlığını test edecek 000 ABD Doları tutarında API kredisi verilecek


OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu

Daha karmaşık ve verimli yapay zekanın ortaya çıkışıyla birlikte riskler de giderek daha sık ve tehlikeli hale geliyor

Daha da ileri gitmek için OpenAI, Yapay Zeka Hazırlık Yarışması adı verilen halka açık bir yarışma başlattı Bu ekip, Massachusetts Teknoloji Enstitüsü’nde (MIT) profesör ve MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin başkanı Aleksander Madry tarafından yönetiliyor Ayrıca şunu da vurguluyor: ” kimyasal, biyolojik, radyolojik ve nükleer tehditler, » toplumun kritik olarak gördüğü