OpenAI'nin, İtalya'nın veri koruma otoritesi tarafından yapay zeka sohbet robotu ChatGPT üzerinde aylarca süren araştırmasının ardından, OpenAI'nin Avrupa Birliği gizliliğini ihlal ettiğinden şüphelenildiği söylendi.
İtalyan otoritenin taslak bulgularının ayrıntıları açıklanmadı. Ama garanti bugün dedi OpenAI'ye bildirimde bulunuldu ve iddialara karşı savunma ile yanıt vermesi için 30 gün süre verildi.
Pan-AB rejiminin teyit edilen ihlalleri, 20 milyon Euro'ya kadar veya küresel yıllık cironun %4'üne kadar para cezasına çarptırılabilir. OpenAI gibi bir yapay zeka devi için daha da rahatsız edici olanı, veri koruma yetkililerinin (DPA'lar), onaylanmış ihlallere son vermek için verilerin işlenme biçiminde değişiklik gerektiren emirler çıkarabilmesidir. Bu nedenle işleyiş şeklini değiştirmek zorunda kalabilir. Veya hizmetini, gizlilik otoritelerinin hoşuna gitmeyen değişiklikleri dayatmaya çalıştığı AB Üye Devletleri'nden çekin.
iphone kişilerini paylaşma
Garanti'nin ihlal bildirimine yanıt verilmesi için OpenAI ile temasa geçildi. Bir açıklama göndermeleri durumunda bu raporu güncelleyeceğiz.
Güncelleme: OpenAI dedi ki:
Uygulamalarımızın GDPR ve diğer gizlilik yasalarıyla uyumlu olduğuna inanıyoruz ve kişilerin verilerini ve gizliliğini korumak için ek adımlar atıyoruz. Yapay zekamızın özel kişiler hakkında değil, dünya hakkında bilgi edinmesini istiyoruz. İnsanlar hakkındaki özel veya hassas bilgilere ilişkin talepleri de reddeden ChatGPT gibi sistemlerimizi eğitirken kişisel verileri azaltmak için aktif olarak çalışıyoruz. Garanti ile yapıcı bir şekilde çalışmaya devam etmeyi planlıyoruz.
Yapay zeka modeli eğitimi çerçevesinde yasallık
İtalyan makamı, geçen yıl OpenAI'nin bloğun Genel Veri Koruma Yönetmeliği'ne (GDPR) uyumuyla ilgili endişelerini dile getirmişti; ChatGPT'nin yerel veri işlemesinin geçici olarak yasaklanması emrini vermesi, AI chatbot'un piyasada geçici olarak askıya alınmasına yol açmıştı.
Garanti'nin 30 Mart'ı karşılık Bir önlem kaydı olarak da bilinen OpenAI, hem ChatGPT'nin temelini oluşturan algoritmaların eğitimi amacıyla kişisel verilerin toplanması ve işlenmesi için uygun bir yasal dayanağın bulunmadığını vurguladı; ve yapay zeka aracının 'halüsinasyon' eğilimi (yani bireyler hakkında yanlış bilgi üretme potansiyeli) - bu noktada endişe duyulan konular arasında yer alıyor. Ayrıca çocuk güvenliğini de bir sorun olarak işaretledi.
Otorite, ChatGPT'nin GDPR'nin 5, 6, 8, 13 ve 25. Maddelerini ihlal ettiğinden şüphelendiğini söyledi.
OpenAI, şüpheli ihlallerden oluşan bu kirli listeyi tanımlamasına rağmen, DPA tarafından dile getirilen bazı sorunları ele almak için adımlar attıktan sonra geçen yıl İtalya'da ChatGPT hizmetine nispeten hızlı bir şekilde devam edebildi. Ancak İtalyan makamı şüpheli ihlalleri araştırmaya devam edeceğini söyledi. Artık aracın AB yasalarını ihlal ettiği yönünde ön sonuçlara varıldı.
İtalyan otoritesi daha önce şüphelenilen ChatGPT'den hangisinin ihlal edildiğinin bu aşamada onaylandığını henüz söylememiş olsa da, OpenAI'nin yapay zeka modellerini eğitmek için kişisel verileri işlemeye yönelik iddialarının yasal dayanağı özellikle önemli bir sorun gibi görünüyor.
Bunun nedeni, ChatGPT'nin, bireylerin kişisel verilerini içeren bilgiler olan, halka açık İnternet'ten alınan yığınla veri kullanılarak geliştirilmiş olmasıdır. OpenAI'nin Avrupa Birliği'nde karşılaştığı sorun, AB vatandaşlarının verilerinin işlenmesinin geçerli bir yasal temele sahip olmasını gerektirmesidir.
GDPR, çoğu kendi bağlamıyla ilgili olmayan altı olası yasal dayanağı listeliyor. Geçtiğimiz Nisan ayında Garante, OpenAI'ye ChatGPT modeli eğitimi için bir sözleşmenin performansına ilişkin referansları kaldırmasını söylemişti; bu da ona yalnızca iki olasılık bırakmıştı: Rıza veya meşru menfaatler.
Hıristiyan dili
Yapay zeka devinin hiçbir zaman bilgilerini aldığı ve yapay zeka modeli oluşturmak için işlediği sayısız milyonlarca (hatta milyarlarca) web kullanıcısının rızasını almaya çalışmadığı göz önüne alındığında, işleme için Avrupalıların iznine sahip olduğunu iddia etmeye yönelik herhangi bir girişim görünür. başarısızlığa mahkum. OpenAI, geçen yıl Garante'nin müdahalesinin ardından belgelerini revize ettiğinde, meşru menfaat iddiasına güvenmeye çalışıyor gibi görünüyordu. Ancak bu yasal dayanak hâlâ bir veri işleyicisinin veri sahiplerinin itirazda bulunmasına ve bilgilerinin işlenmesinin durdurulmasına izin vermesini gerektirmektedir.
OpenAI'nin yapay zeka sohbet robotu bağlamında bunu nasıl yapabileceği açık bir sorudur. (Teorik olarak, yasadışı olarak eğitilmiş modelleri geri çekmesini ve yok etmesini ve itiraz eden kişinin eğitim havuzundaki verileri olmadan yeni modelleri yeniden eğitmesini gerektirebilir - ancak yasa dışı olarak işlenen tüm verileri bireysel olarak tanımlayabildiğini varsayarsak, bu durum Ona durmasını söyleyen, itiraz eden her AB üyesinin verileri için bunu yapmamız gerekiyor… Ki bu da kulağa pahalı geliyor.)
Bu çetrefilli konunun ötesinde, Garanti'nin bu bağlamda meşru menfaatlerin geçerli bir yasal dayanak olduğu sonucuna varıp varmayacağına dair daha geniş bir soru var.
Açıkçası bu pek olası görünmüyor. Çünkü LI herkes için ücretsiz bir uygulama değil. Veri işleyicilerin kendi çıkarları ile verileri işlenen bireylerin hak ve özgürlükleri arasında denge kurmasını ve bireylerin verilerinin bu şekilde kullanılmasını bekleyip beklemeyecekleri gibi hususları dikkate almasını gerektirir; ve onlara haksız zarar verme potansiyeli. (Eğer beklemezlerse ve bu tür bir zarar riski mevcutsa, LI geçerli bir hukuki dayanak olarak görülmeyecektir.)
2024 elektrikli cehennem kedisi
Veri işlemenin aynı zamanda veri işleyenin amacına ulaşması için daha az müdahaleci başka bir yol olmaksızın gerekli olması gerekir.
Özellikle, AB'nin yüksek mahkemesi daha önce Meta'nın sosyal ağlarda davranışsal reklamcılık işini yürütmek üzere bireylerin takibini ve profilini oluşturmasını gerçekleştirmek için meşru çıkarların uygunsuz bir temel olduğunu tespit etmişti. Bu nedenle, ticari, üretken bir yapay zeka işi kurmak için insanların verilerinin geniş ölçekte işlenmesini haklı çıkarmaya çalışan başka türde bir yapay zeka devi kavramı üzerinde büyük bir soru işareti var; özellikle de söz konusu araçlar, adı geçen kişiler için her türlü yeni risk oluşturduğunda (örn. dezenformasyon ve iftiradan kimlik hırsızlığı ve dolandırıcılığa kadar).
Garante'nin bir sözcüsü, insanların verilerinin model eğitimi için işlenmesine yönelik yasal dayanağın, ChatGPT'nin ihlal ettiğinden şüphelenilen şeylerin karışımında kaldığını doğruladı. Ancak bu noktada OpenAI'nin ihlal ettiğinden şüphelendiği bir (veya daha fazla) makaleyi tam olarak doğrulamadılar.
Otoritenin bugünkü duyurusu da henüz son söz değil; zira nihai bir karar vermeden önce OpenAI'nin yanıtını bekleyecek.
Burada Garantör beyan (yapay zeka kullanarak İtalyancadan tercüme ettik):
yol koşucusu silahı
[İtalyan Veri Koruma Otoritesi], ChatGPT yapay zeka platformunu işleten şirket OpenAI'ye, veri koruma düzenlemelerini ihlal ettiği gerekçesiyle itiraz bildirimini bildirdi.
İşleme emrinin geçici olarak kısıtlanmasının ardından, Sağlar Kurum, 30 Mart'ta şirket aleyhine dava açmış ve yapılan ön soruşturma sonucunda, elde edilen unsurların AB Mevzuatı hükümlerine göre bir veya birden fazla hukuka aykırı eylem teşkil edebileceği kanaatine varmıştı.
OpenAI'nin iddia edilen ihlallere ilişkin savunma brifinglerini iletmek için 30 günü olacak.
Garanti, işlemleri tanımlarken, AB Veri Koruma Otoritelerini (EDPB) bir araya getiren Kurul tarafından oluşturulan özel görev gücünün devam eden çalışmalarını dikkate alacak.
OpenAI, İrlanda'da fiziksel bir üs kurmaya yönelik bir şikayetin ardından ChatGPT'nin Polonya'daki GDPR uyumluluğu konusunda da incelemeyle karşı karşıya; ve duyuruyor,
ChatGPT, gizlilik açıklamaları ve kontrolleri ekledikten sonra İtalya'daki hizmetine devam ediyor
İtalya, ChatGPT askıya alma emrinin kaldırılması için OpenAI'ye ilk yapılacaklar listesini verdi