İtalyan yetkililer, yapay zeka (AI) uzmanlarının neredeyse imkansız olabileceğini söylediği bir görev olan yerel ve Avrupa veri koruma ve mahremiyet yasalarına uymak için şirketin 30 Nisan’a kadar zamanı olduğu konusunda ısrar ettiğinden, OpenAI yakında şimdiye kadarki en büyük düzenleyici zorluğuyla karşı karşıya kalabilir.
İtalyan makamları yayınladı Mart ayı sonlarında OpenAI’nin GPT ürünlerine genel bir yasak, ürünlerden tamamen kaçınan ilk Batılı ülke oldu. Eylem, ChatGPT ve GPT API müşterilerinin diğer kullanıcılar tarafından oluşturulan verileri görebildiği bir veri ihlalinin hemen ardından geldi.
Verileri gerçekten bir başkasına ifşa edilmiş kullanıcı sayısının son derece düşük olduğuna inanıyoruz ve etkilenebilecek kişilerle iletişime geçtik. Bunu çok ciddiye alıyoruz ve araştırmamızın ve planımızın ayrıntılarını burada paylaşıyoruz. 2/2 https://t.co/JwjfbcHr3g
— OpenAI (@OpenAI) 24 Mart 2023
İtalyan siparişinin Bing destekli çevirisine göre komuta OpenAI, uygunluğu gösterene kadar ülkedeki ChatGPT operasyonlarını durduracak:
“İtalyan SA, sıralamasında, verileri Open AI tarafından toplanan kullanıcılara ve veri sahiplerine hiçbir bilgi verilmediğini vurguluyor; daha da önemlisi, platformun dayandığı algoritmaları ‘eğitmek’ için kişisel verilerin büyük çapta toplanmasını ve işlenmesini destekleyen hiçbir yasal dayanak yok gibi görünüyor.”
İtalyan şikayeti, OpenAI’nin yazılım ve hizmetlerinin, kullanıcıların 13 yaşın üzerinde olmasını gerektiren şirketin kendi hizmet şartlarına uygun olmasını sağlamak için yaş doğrulama önlemlerini de uygulaması gerektiğini belirtiyor.
İtalya’da ve Avrupa Birliği’nin geri kalanında gizlilik uyumluluğunu sağlamak için OpenAI’nin kapsamlı veri toplama süreçleri için bir temel sağlaması gerekecektir.
AB’nin Genel Veri Koruma Yönetmeliği (GDPR) uyarınca, teknoloji ekipleri almak kullanıcı, ürünlerini kişisel verilerle eğitmeye izin verir. Ayrıca, Avrupa’da faaliyet gösteren şirketler, Avrupalılara veri toplama ve paylaşma seçeneğini devre dışı bırakma seçeneği de sunmalıdır.
Uzmanlara göre bu, OpenAI için zorlu bir mücadele olacak çünkü modelleri internetten kazınmış ve eğitim setlerinde birleştirilmiş devasa veri hazineleri üzerinde eğitiliyor. Bu tür kara kutu eğitimi Amaçları yararlı özelliklerin modellerde öngörülemez bir şekilde ortaya çıktığı “ortaya çıkma” adlı bir paradigma yaratmak.
“GPT-4 … acil davranışlar sergiliyor”.
Bekle bekle bekle bekle. Eğitim verilerini bilmiyorsak, neyin “ortaya çıktığını” ve neyin “sonuç” olduğunu nasıl söyleyebiliriz?!?!
Sanırım “ortaya çıkma” fikrinden bahsediyorlar, ama yine de ne anlama geldiğinden emin değilim. https://t.co/Mnupou6D1d— MMitchell (@mmitchell_ai) 11 Nisan 2023
Ne yazık ki, bu, geliştiricilerin nadiren veri kümesinde tam olarak ne olduğunu bilmenin herhangi bir yolunun olduğu anlamına gelir. Ve makine, çıktılar üretirken birden çok veri noktasını birleştirme eğiliminde olduğundan, tek tek veri parçalarını ayıklamak veya değiştirmek modern teknisyenlerin kapsamı dışında olabilir.
Bir AI etik uzmanı olan Margaret Mitchell, söylenmiş MIT Technology Review, OpenAI için bireylerin verilerini tanımlamanın ve onu modellerinden çıkarmanın son derece zor olacağını söylüyor.
Uyumluluğa ulaşmak için OpenAI’nin, modellerini eğitmek için kullanılan verileri kullanıcının izniyle elde ettiğini göstermesi gerekecek – bu, şirketin bir şeyidir. araştırma makaleler doğru olmadığını gösteriyor – veya en başta verileri kazımakla “meşru bir ilgisi” olduğunu gösteriyor.
Newcastle Üniversitesi’nde internet hukuku profesörü olan Lilian Edwards, MIT’nin Technology Review’e anlaşmazlığın sadece İtalyan eyleminden daha büyük olduğunu ve ihlallerin o kadar önemli olduğunu ve davanın büyük olasılıkla AB’nin en yüksek mahkemesi olan Adalet Divanı’na gideceğini söyledi. .
Bu, OpenAI’yi potansiyel olarak tehlikeli bir konuma getiriyor. Kullanıcı isteklerine göre bireysel verileri belirleyip kaldıramaz veya verilerde insanları yanlış tanıtan değişiklikler yapamazsa, 30 Nisan son tarihinden sonra ChatGPT ürünlerini İtalya’da çalıştıramaz hale gelebilir.
Fransız, Alman, İrlandalı ve AB düzenleyicileri de şu anda ChatGPT’yi düzenlemek için harekete geçmeyi düşündüğünden, şirketin sorunları burada bitmeyebilir.