Yapay zekâ risklerini yönetmek için atılması gereken 7 hayati adım

  • Blog
  • 5 dakikalık okuma

Frontier: Dijital Hizmetler Gündemi

Şimdi keşfet

Yöneticilerin Üretken Yapay Zekâyla ilgili hızla değişen risklere daha fazla öncelik vermeleri gerekiyor. Buna, bazı güven verici adımları atarak başlayabilirler.

Yöneticilerin en önemli risk öncelikleri

PwC’nin 2023 yılındaki Güven Araştırmasında 500 lidere, şirketlerine duyulan güveni azaltabilecek başlıca riskleri nasıl önceliklendirdikleri sorulmuştu. Verdikleri yanıtlarda, yapay zekâ ile ilişkili tehditler, listede, veri sızıntısı ya da fidye yazılımı saldırısı gibi risklerin çok daha altında yer alıyordu. Bulgular, birçok işletme liderinin henüz üretken yapay zekânın getirdiği zorlukların aciliyetini kavramadığını gösteriyor. Bu risklerden bazıları, saldırgan veya yanıltıcı içerikler, yanlış bilgi yaymayı veya paydaşların hassas bilgileri paylaşmasını sağlamayı amaçlayan “deepfake” içerikler (gerçekte olmayan, ancak çok gerçekçi olan, yapay zekâ kullanılarak yapılan video veya fotoğraflar), yetkililerin ağzından sunulan tümüyle yanlış olan bilgiler, bilgileri gizli tutulan paydaşların kimliklerinin ifşa edilmesi, telif hakkı ile korunan materyallerden yasadışı olarak çoğaltılan içerikler, fikri mülkiyetin yanlışlıkla paylaşılması olmakla beraber, bu liste ürkütücü bir şekilde uzamaya devam ediyor.

Peki şirketler, diğer kullanım alanlarının yanı sıra müşteri hizmetlerinin ve yüksek hacimli işlerin otomatikleştirilmesini sağlayacak, tescilli ve kamuya açık verilerin ve araştırmaların kullanışlı özetlerini sunacak, hatta yazılımlar için kod yazabilecek üretken yapay zekânın gücünden paydaşlarının güvenini tehlikeye atmadan nasıl faydalanabilirler? Aşağıdaki adımları atarak başlayabilirler: 

  • Riske dayalı öncelikler belirleyin. Üretken yapay zekâyla ilgili bazı riskler, paydaşlarınız için diğer risklere kıyasla daha önemlidir. Yönetişim, uyum, risk, iç denetim ve yapay zekâ ekiplerinin en önemli risklere en fazla odaklanmasını sağlamak için risk hiyerarşisi çerçevesi çizin veya mevcut çerçeveyi güncelleyin.

  • Siber, veri ve gizlilikle ilgili risk korumalarını gözden geçirin. Kötü niyetli kişilerin yapay zekâyı kullanarak özel verileri tahmin etme, gizli kimlikleri ortaya çıkarma ya da siber saldırılar gerçekleştirmesi risklerini azaltmak için siber güvenlik, veri yönetişimi ve gizlilik protokollerini güncelleyin.

  • Şeffaf olamama riskini ele alın. Bazı üretken yapay zekâ sistemleri ile çıktıları oluşturmada kullanılan “temel model” ya da yapay sinir ağı, kullanıcılar tarafından açıklanmaz veya kolayca erişilemez. Bu durum, belirli bir sistemin neden belirli sonuçlar ürettiğini anlamayı imkansız hale getirir. Bu tür sistemleri tespit edin ve bu sistemlerin adil, doğru ve uyumlu olmalarını sağlamak için hangi uygulamaları kullanmanız gerektiğini düşünün.

  • Paydaşları bu teknolojinin sorumlu şekilde kullanılması ve denetlenmesi için donatın. Çalışanlarınıza üretken yapay zekânın temellerinin nasıl çalıştığı, ne zaman kullanılıp kullanılmayacağını ile ilgili temel bilgileri verin. Ayrıca, çıktıları nasıl ve ne zaman doğrulamaları veya düzeltmeleri gerektiğini öğretin. Halihazırda kullanılanlar dahil tüm yapay zekâ yönetişim kılavuzlarını ve diğer yönetişim yapılarını (örn. gizlilik ve siber güvenlik) iyileştirin. Uyum ve hukuk ekiplerine, fikri mülkiyet ihlallerini ve diğer ilgili riskleri tespit edebilmelerini sağlayacak becerileri ve yazılımları sağlayın.

  • Üçüncü tarafları izleyin. Ürün veya hizmet aldığınız tedarikçilerden hangilerinin üretken yapay zekâ kullanarak içerik veya hizmetler sağladığını, ilgili riskleri nasıl yönettiğini ve sizin bu risklere ne ölçüde maruz kalabileceğinizi öğrenin.

  • Yasal düzenleme ortamını takip edin. Tüm dünyadaki politika yapıcılar, yapay zekânın gelişimi ve kullanımı ile ilgili giderek artan sayıda kılavuz yayımlıyor. Bu kılavuzlar hala tam değil ve yasal düzenleme çerçevesinin tümünü yansıtmıyor; ancak sürekli olarak yeni kurallar ortaya çıkıyor.

  • Otomatik denetim getirin. Üretken yapay zekâ tarafından oluşturulan içeriklerin giderek daha yaygın hale gelmesiyle birlikte, bu içerikleri tespit etmek, hatalı olup olmadığını anlamak, önyargı veya gizlilik ihlalleri açısından değerlendirmek ve gerektiğinde kaynak göstermek için yeni yazılım araçları kullanın.

Tüm bu adımlar, yapay zekânın sorumlu şekilde kullanılmasının temelini oluşturuyor ve şirketinizin yapay zekâ kılavuzunun da vazgeçilmez bir parçası haline gelmeli.

İletişim

Cem Aracı

Cem Aracı

Dijital Hizmetler Lideri, PwC Türkiye

Telefon: +90 212 326 6840

Bizi takip edin