Kişisel Verileri Koruma Kurumu, iş yerlerinde üretken yapay zekâ araçlarının kullanımına ilişkin yeni bir rehber yayımladı. “İş Yerlerinde Üretken Yapay Zekâ Araçlarının Kullanımı” başlıklı rehberde, özellikle çalışanların kurum bilgisi dışında kullandığı yapay zekâ uygulamalarının veri güvenliği açısından risk oluşturabileceği vurgulandı.

“Gölge Yapay Zekâ” Uyarısı

Rehberde “gölge yapay zekâ” olarak tanımlanan kontrol dışı kullanımlara dikkat çekildi. Bu kavram, çalışanların kurumun bilgisi veya onayı olmadan yapay zekâ araçlarını iş süreçlerinde kullanmasını ifade ediyor.

KVKK’ya göre bu tür kullanımlar, hangi verilerin paylaşıldığı ve hangi sistemlerin kullanıldığı konusunda kurumların kontrolünü zorlaştırıyor. Bu durum veri güvenliği ve siber güvenlik açısından önemli riskler doğurabiliyor.

Ticari Sırlar İçin Tehlike

Kuruma göre üretken yapay zekâ araçlarına yüklenen bazı bilgiler, kurumlar için kritik riskler barındırıyor.

Kaynak kodları, ürün tasarımları, iş stratejileri ve ticari sır niteliği taşıyan verilerin üçüncü taraf yapay zekâ platformlarıyla paylaşılması halinde bu verilerin kurum kontrolü dışında işlenebileceği uyarısı yapıldı.

Yasaklamak Çözüm Değil

Rehberde yapay zekâ araçlarının tamamen yasaklanmasının etkili bir çözüm olmayabileceği de ifade edildi. Böyle bir yaklaşımın çalışanların bu araçları kurum denetimi dışında kullanmasına yol açabileceği belirtildi.

Bu nedenle kurumların:

Trafik kazası tutanağı artık e-Devlet’te: Nasıl yapılır?
Trafik kazası tutanağı artık e-Devlet’te: Nasıl yapılır?
İçeriği Görüntüle
  • Açık yapay zekâ kullanım politikaları oluşturması

  • Hangi verilerin paylaşılabileceğini belirlemesi

  • Çalışanlara eğitim ve farkındalık programları düzenlemesi

gerektiği vurgulandı.

Son Karar İnsan Denetiminde Olmalı

KVKK ayrıca yapay zekâ sistemlerinin ürettiği sonuçlara aşırı güven duyulmasının da risk oluşturabileceğini belirtti. “Otomasyon ön yargısı” olarak tanımlanan bu durumun, kullanıcıların yapay zekâ çıktılarının doğruluğunu yeterince sorgulamadan kabul etmesine neden olabileceği ifade edildi.

Bu nedenle yapay zekâ araçlarının ürettiği içeriklerin nihai karar yerine destekleyici unsur olarak değerlendirilmesi ve mutlaka insan denetiminden geçirilmesi gerektiği belirtildi.

Bilgisayar Z0Tj Cover.jpg