İtalyan Rekabet ve Tüketiciyi Koruma Kurumu, üretken yapay zeka uygulamalarında yanlış veya yanıltıcı içerik üretimi risklerine yönelik yürüttüğü soruşturmaları sonuçlandırdı.
Kurum, Çin merkezli DeepSeek, Fransa merkezli Mistral AI ve Türkiye merkezli ScaleUp Yazılım Kalite Kontrol tarafından sunulan bağlayıcı taahhütlerin ardından dosyaları kapatma kararı aldı.
Soruşturmalarda, üretken yapay zeka sistemlerinin “halüsinasyon” olarak adlandırılan hatalı veya yanıltıcı çıktı üretme riski ve bunun kullanıcılar üzerindeki etkileri incelendi. Şirketlerin, bu riskleri azaltmaya yönelik önlemler ve şeffaflık adımları taahhüt ettiği belirtildi.
SCALE UP YANIT VERDİ
Yetkili makam, bu adımın, üç şirketin yapay zeka risklerine ilişkin şeffaflığı artırma taahhüdünde bulunmasının ardından atıldığını, bu taahhüt doğrultusunda şirketlerin web sitelerine ve uygulamalarına açık uyarılar ve açıklamalar ekleyerek kullanıcıların mevcut yapay zeka sistemlerinin sınırlamalarının farkında olmalarını sağladığını açıkladı.
ScaleUp, NOVA AI platformunun nasıl çalıştığını açıklığa kavuşturmayı kabul ederek, yapay zeka sistemlerinin yanıtlarını işlemeden veya değiştirmeden, yapay zeka tabanlı sohbet robotlarının çeşitli modellerine erişim için birleşik bir arayüz sağladığını doğruladı.
Bu gelişmeler, özellikle üretken uygulamaların yaygınlaşmasıyla birlikte, yapay zeka teknolojilerinin güvenli ve sorumlu kullanımını sağlamak amacıyla daha katı kurallar oluşturmayı hedefleyen, Avrupa'daki düzenleyici baskıların yapay zeka şirketleri üzerinde arttığı bir dönemde gerçekleşti.
Gözlemciler, İtalyan Rekabet Kurumu'nun kararının, özellikle modern yapay zeka sistemleri tarafından üretilen yanlış bilgilere ilişkin endişelerle birlikte, Avrupa'da yapay zeka sektörüne daha fazla denetim getirme yönündeki artan bir eğilimi yansıttığına inanıyor.
patronlardunyasi.com