a

Yapay Zeka Yarışına Hukuki Engeller mi Geliyor?

Son dönemde yapay zeka alanındaki gelişmeler hız kazanırken, hukuki düzenlemeler ve veri güvenliği konuları da tartışmaların merkezine oturdu. Özellikle Çin merkezli DeepSeek’in geliştirdiği r1 modeli, performans açısından OpenAI’nin önde gelen modellerinden biriyle rekabet edecek seviyeye ulaşmasıyla dikkat çekti. Ancak, şirketin veri kullanımı ve hukuki yükümlülükleri nedeniyle Avrupa’daki düzenleyici kurumların incelemesine girmesi, büyük dil modellerinin geleceği açısından yeni bir tartışma başlattı.

Son dönemde yapay zeka alanındaki gelişmeler hız kazanırken, hukuki düzenlemeler ve veri güvenliği konuları da tartışmaların merkezine oturdu. Özellikle Çin merkezli DeepSeek’in geliştirdiği r1 modeli, performans açısından OpenAI’nin önde gelen modellerinden biriyle rekabet edecek seviyeye ulaşmasıyla dikkat çekti. Ancak, şirketin veri kullanımı ve hukuki yükümlülükleri nedeniyle Avrupa’daki düzenleyici kurumların incelemesine girmesi, büyük dil modellerinin geleceği açısından yeni bir tartışma başlattı.

DeepSeek’in Yükselişi ve Hukuki Engeller

DeepSeek’in r1 modelinin hızlı çıkışı, Avrupa Birliği (AB) veri koruma otoritelerinin dikkatini çekti. 28 Ocak 2025’te İtalya Veri Koruma Otoritesi (Garante), şirketten kişisel veri işleme süreçleri, veri saklama konumu ve kullanıcı bilgilendirme mekanizmaları hakkında bilgi talep etti ve yanıt için 20 gün süre verdi. Ardından İrlanda Veri Koruma Otoritesi (DPC) ve Fransız Veri Koruma Otoritesi (CNIL) de benzer soruşturmalara başladı.

Ancak 30 Ocak’ta Garante, DeepSeek’in sunduğu bilgileri yetersiz bularak şirketin İtalyan kullanıcılarından veri toplamasını yasakladı. Bu kararın ardından, İtalya’daki uygulama mağazalarında DeepSeek’in yasaklandığı duyuruldu. Daha önce, Nisan 2024’te benzer bir yasak ChatGPT için getirilmiş, ancak OpenAI’nin ek taahhütlerde bulunmasının ardından yasak kaldırılmıştı. Aralık 2024’te ise OpenAI’ya 15 milyon avro para cezası verilmiş ve kamuoyunu bilgilendirme kampanyası yürütmesi zorunlu kılınmıştı.

Fikri Haklar Konusunda da Hukuki Mücadele Devam Ediyor

Yapay zeka modellerinin eğitimi için kullanılan veri setleri, fikri haklar konusunda da önemli hukuki sorunlara yol açıyor. OpenAI ve diğer üretken yapay zeka şirketleri, birçok ülkede veri kullanımıyla ilgili davalarla karşı karşıya. Son olarak New York Times ve Hindistan merkezli ANI haber ajansı, OpenAI’a dava açtı.

Buna ek olarak OpenAI, DeepSeek’in kendi yapay zeka modelini geliştirmek için OpenAI modellerini kullandığını iddia ederek haksız rekabet ve fikri haklar konusunda yeni bir hukuki cephe açtı.

Hukuki Düzenlemeler Ne Diyor?

Büyük dil modellerinin geliştirilmesinde kullanılan veri setleri, küresel çapta tek bir düzenlemeye tabi değil. Ancak, kişisel verilerin korunması ve fikri haklar en önemli hukuki konular arasında yer alıyor.

Türkiye’de bu alan, 6698 sayılı Kişisel Verilerin Korunması Kanunu (KVKK) ve 5846 sayılı Fikir ve Sanat Eserleri Kanunu (FSEK) kapsamında düzenleniyor. KVKK’ya göre, kişisel veriler ancak kanunda öngörülen belirli sebepler varsa veya bireyin açık rızası alınmışsa işlenebiliyor. FSEK kapsamında ise eser sahiplerinin onayı olmadan fikri ürünlerin kullanılması hukuka aykırı kabul ediliyor.

Öte yandan, ABD, AB ve Türkiye hukuk sistemleri arasında önemli farklılıklar bulunuyor. AB’nin Genel Veri Koruma Tüzüğü (GDPR), kişisel verilerin işlenmesi konusunda daha katı kurallar getirirken, ABD’de federal düzeyde kapsayıcı bir veri koruma yasası bulunmuyor. Bu nedenle ABD’de kişisel verilerin ticari amaçlarla işlenmesi daha esnek olabiliyor.

İnternetteki Veriler Serbestçe Kullanılabilir mi?

Yapay zeka modelleri, eğitim süreçlerinde büyük ölçekli internet verilerini kullanıyor. Ancak bir verinin internette herkese açık olması, bu verinin serbestçe kullanılabileceği anlamına gelmiyor.

AB ve Türk hukukuna göre, kişisel veriler veya fikri eserler sahibinin izni olmadan kullanılamazken, ABD hukukunda “adil kullanım” (fair use) istisnası çerçevesinde bazı durumlarda bu tür verilerin işlenmesi mümkün olabiliyor.

Ayrıca, GDPR kapsamında, serbest erişilebilir verilerin işlenmesi için meşru menfaat analizi yapılması gerekiyor. KVKK ise verinin doğrudan birey tarafından kamuya açık hale getirilmesi durumunda rıza gerekmeyeceğini öngörüyor. Ancak bu serbestlik de belirli bir amaca uygunluk şartına bağlı.

Veri Güvenliği ve Ulusal Güvenlik Boyutu

DeepSeek’in Çin merkezli olması, şirketin veri kullanımıyla ilgili tartışmalara ulusal güvenlik boyutunu da ekliyor. DeepSeek’in veri merkezlerinin Çin’de bulunması, ABD’nin potansiyel bir ulusal güvenlik riski olarak gördüğü konular arasında yer alıyor.

Çin’in 2017 tarihli siber güvenlik kanunu, Çin’de faaliyet gösteren tüm şirketlerin belirli verileri ülke içinde saklamasını ve gerektiğinde otoritelere sunmasını zorunlu kılıyor. Bu durum, ABD ve Avrupa’da endişe yaratırken, DeepSeek gibi güçlü bir yapay zeka modelinin veri güvenliği açısından nasıl bir denetime tabi tutulacağı merak konusu.

Sonuç: Yapay Zeka Yarışında Veriyi Korumanın Önemi

Son yaşanan gelişmeler, verinin yapay zeka yarışındaki kritik rolünü bir kez daha gözler önüne seriyor. Gelişmiş yapay zeka sistemleri için veri, fiziksel altyapı kadar önemli bir varlık haline gelmiş durumda.

Bu süreçte, bireylerin kişisel verileri üzerindeki kontrolünü artırması, şirketlerin hukuki çerçeveye uygun hareket etmesi ve devletlerin veri güvenliğini ön planda tutması büyük önem taşıyor. Yapay zeka yarışının hızla devam ettiği bu dönemde, hukuki düzenlemeler ve etik çerçevelerin nasıl şekilleneceği, teknoloji dünyasının geleceğini belirleyecek önemli faktörlerden biri olmaya devam edecek.

YORUMLAR

s

En az 10 karakter gerekli

Sıradaki haber:

Türk Kızılay’dan Gazze’ye 57 Tır Dolusu Yardım Girişi

HIZLI YORUM YAP

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.