Gizlilik ve siber güvenlik sorunları ve farklı ülkelerdeki son yasaklar arasında, yapay zeka (AI) OpenAI şirketi, güvenlik açığı endişeleriyle mücadele etmek için bir program yayınladı.
11 Nisan’da ChatGPT’nin arkasındaki şirket OpenAI, ilan edildi sistemlerindeki güvenlik açıklarını belirlemeye ve ele almaya yardımcı olmak için OpenAI “Bug Bounty Programı”nın başlatılması. Duyuruya göre program, güvenlik araştırmacılarını OpenAI teknolojisini ve şirketini güvende tutmaya katkılarından dolayı ödüllendiriyor.
OpenAI, güvenlik araştırmacıları, etik korsanlar ve teknoloji meraklılarından oluşan küresel topluluğu davet ederek güvenlik açığı bilgilerini nitelendirmek için teşvikler sundu. AI şirketi, uzmanlık ve ihtiyatın sistemlerini güvenli tutmayı ve kullanıcıların güvenliğini sağlamayı doğrudan etkileyeceğine inanıyor.
Program lansmanı aşağıdaki gibidir tarafından yapılan bir açıklama Japon hükümetinin Baş Kabine Sekreteri Hirokazu Matsuno Pazartesi günü Japonya’nın, gizlilik ve siber güvenlik konularının ele alınması koşuluyla, yapay zeka teknolojisini hükümet sistemlerine dahil etmeyi düşüneceğini söyledi.
OpenAI acı çekti 20 Mart’ta, açık kaynak kitaplığındaki bir hata nedeniyle kullanıcı verilerinin başka bir kullanıcıya ifşa edildiği bir veri ihlali.
Duyuruda OpenAI, tüm katılımcılar için kolaylaştırılmış bir deneyim sağlamak üzere tasarlanan gönderim ve ödül sürecini yönetmek için bir hata ödül platformu olan Bugcrowd ile ortaklık kurduğunu söyledi. Bildirilen sorunların ciddiyetine ve etkisine göre nakit ödüller verilecektir. Ödüller, düşük önem dereceli bulgular için 200 ABD Doları ile olağanüstü keşifler için 20.000 ABD Doları arasında değişmektedir.
İlgili: GPT-4 uygulamaları BabyAGI ve AutoGPT, kripto için yıkıcı etkilere sahip olabilir
OpenAI tarafından listelenen belirli yönergelere göre yürütülen güvenlik açığı araştırmaları için güvenli liman koruması sağlanır. Araştırmacıların yürürlükteki tüm yasalara uyması beklenir.
OpenAI’nin bug bounty programına katılan ve araştırmacının programın kurallarına uyan bir güvenlik araştırmacısına karşı bir üçüncü taraf yasal işlem başlatırsa, OpenAI diğerlerine araştırmacının programın yönergeleri dahilinde hareket ettiğini bildirir. Bunun nedeni, OpenAI sistemlerinin diğer üçüncü taraf sistemler ve hizmetlerle bağlantılı olmasıdır.
dergi: Robot yargıç için her şey yolunda: AI ve blockchain mahkeme salonunu dönüştürebilir