Dolar
44,3513
0,08%
Euro
51,4093
-0,12%
Sterlin
59,4366
-0,20%
Bitcoin
3.107.757
-1,00%
BİST-100
13.168,16
0,92%
Gram Altın
6.190,68
-1,40%
Gümüş
66,54
-3,80%
Faiz
43,42
0,00%

Yapay zekâ sistemleri yayınlanmamış akademik verileri kopyalayarak güvenlik tartışması yarattı

Dilini düzeltsin, istatistiğini tutsun diye yapay zekâya emanet edilen akademik çalışmalar, sistem tarafından sessizce kopyalanıp başkalarına servis ediliyor. Doç. Dr. Yusuf Kızıltaş’ın yaşadığı ‘hayalet makale’ şoku, dijital asistanların aslında birer ‘fikir hırsızı’ olduğunu kanıtladı. Akademik mahremiyet artık siber korsanların elinde.

24.03.2026 03:57Güncelleme: 24.03.2026 04:00
Yapay zekâ sistemleri yayınlanmamış akademik verileri kopyalayarak güvenlik tartışması yarattı
16px
32px

Dil kontrolü ve istatistik desteği için yapay zekâya emanet edilen makaleler, “asistan” sanılan istemler tarafından kopyalanıyor. Henüz yayınlanmamış başlıklar ve özgün bölümler, yapay zekâ havuzuna düşerek başka çalışmaların kaynağı hâline geliyor. Akademik mahremiyet artık büyük risk altında. Bu durum, akademik üretimde veri güvenliği ve gizlilik tartışmalarını yeniden alevlendirdi.

GERÇEKTE YOK...

Olay, Doç. Dr. Yusuf Kızıltaş’ın SSCI indeksli prestijli bir dergiden aldığı hakemlik davetiyle gün yüzüne çıktı. Hakemlik yaptığı makalenin kaynakça bölümünü inceleyen Kızıltaş, kendi adına yapılmış atıflarla karşılaştı. Kaynakçada yer alan üç çalışmadan ikisinin kendisine ait olduğunu belirleyen araştırmacı, üçüncü çalışmanın ise gerçekte var olmadığını fark etti.

Asıl çarpıcı detay ise söz konusu “hayalet makale”nin başlık ve içeriğinin, Kızıltaş’ın o sırada henüz yayımlanmamış ve yalnızca sınırlı sayıda hakemin bildiği güncel çalışmasıyla bire bir örtüşmesiydi. Araştırmacının, bu çalışması için daha önce yapay zekâdan dil ve istatistik desteği aldığı öğrenildi. Yaşanan durum, yapay zekâ sistemlerinin akademik metinlerle kurduğu ilişkinin sınırlarını sorgulatır hâle getirdi.

İHLALDE YENİ BOYUT

Uzmanlara göre bu örnek, yapay zekânın yalnızca internette yer alan mevcut verileri harmanlamakla kalmadığını; kullanıcıların kendisine emanet ettiği gizli ve yayımlanmamış içerikleri de veri havuzuna dâhil ederek dönüştürebildiğini gösteriyor.

Bu süreç, “dijital mahremiyet ihlalinin yeni ve görünür bir boyutu” olarak tanımlanıyor. Yapay zekâ ile paylaşılan akademik metinler, yayımlanma süreci tamamlanmadan dolaylı yollardan ifşa edilme riskiyle karşı karşıya kalıyor.

Türkiye gazetesinden Mahmut Özay'ın haberine göre, dünyanın önde gelen yayınevlerinden Elsevier, SAGE ve Taylor & Francis, yapay zekânın dil düzenleme süreçlerinde kullanılmasına şeffaf beyan şartıyla izin veriyor. Ancak son yaşanan hadise, bu kullanımın yalnızca etik bir tercih değil, aynı zamanda ciddi bir veri güvenliği problemi olduğunu da ortaya koydu.

Uzmanlar, bilimsel üretim süreçlerinde yapay zekâ desteği alan akademisyenleri çeşitli kritik noktalarda uyarıyor. Analiz veya düzeltme amacıyla sisteme yüklenen metinlerin, yapay zekâ tarafından “öğrenme malzemesi” olarak değerlendirilip veri havuzuna dâhil edilebileceği gerçeğinin göz ardı edilmemesi gerektiği vurgulanıyor.

Bu durumun doğurduğu en büyük güvenlik risklerinden biri ise, yapay zekânın araştırmacıların adına henüz yayımlanmamış ya da hiç var olmamış uydurma kaynaklar üreterek akademik itibarı ciddi biçimde tehlikeye atabilmesi.

Gelinen noktada bilimsel üretim sürecinin, yalnızca akademik etik kurallarıyla değil; kişisel verilerin korunması adına sıkı siber güvenlik protokolleriyle de desteklenmesi gerektiği ifade ediliyor.

'HAYALET KAYNAK" ÜRETİYOR

Yapay zekâ ile makale yazdırmanın etik dışı olmasının yanı sıra, sistemlerin en büyük risklerinden biri uzmanların çalışma alanlarını taklit ederek onlar adına “hayalet kaynaklar” üretmesi olarak öne çıkıyor.

Özellikle çok sayıda eseri bulunan araştırmacıların verilerinden beslenen yapay zekâ, son derece gerçekçi görünen ancak tamamen uydurma referanslar oluşturarak akademik güvenilirliği ciddi biçimde tehdit ediyor.

patronlardunyasi.com