Yapay Zekânın Gizlilik Sorununu Çözebilecek Teknikler

 Yapay Zekânın Gizlilik Sorununu Çözebilecek Teknikler

Çağımızın yükselen teknolojisi yapay zekâ, sivil planlamadan sıhhat hizmetlerine ve siber güvenliğe kadar tüm sanayilerde bir dönüşümü vadediyor. Lakin zımnilik, münhasıran ahenk ve düzenleme laf konusu olduğunda dalda çözülemeyen bir zorluk olmaya devam ediyor. Velev pek çok şirket, şahsî dataların sızdırılması nedeniyle gündeme geliyor.

Bu noktada Apple ve Google üzere pek çok devasa şirketin bu husustan muzdarip olduğunu söylemek mümkün. Hatırlarsanız Apple, Siri kayıtlarının dinlenmesi skandalıyla bir müddet gündemden düşmemişti. Nisan ayında Bloomberg, bilişim devi Amazon’un Alexa destekli cihazlardan binlerce saatlik ses kayıtlarını dinlemek için taşeron çalışanlar kullandığını ortaya çıkarmıştı.

Son periyotlarda bunun üzere binlerce farklı hikayenin yaşandığını ve pek çok dev firmanın bu hadiselerle gündeme geldiğini söyleyebiliriz. Evet, yasalar kapalılığı korumak için çalışıyor ama ehil değil. Evet yapay zekanın kapalılık meselesini hangi teknikler çözebilir? Gelin, bunlara biraz daha yakından bakalım.

Yapay hudut ağları ve güvenlik açıkları:

İnsan dimağı ve hudut sisteminden esinlenerek oluşturulmuş bu modelde, birinci katman girişi son katman ise çıkışı temsil eder. Ortada bulunan katmanlar ise bilinmeyen katmanlardır ve her katmanda belli sayıda nöron (neuron/sinir hücresi) bulunur. Birçok yapay zekâ sisteminin merkezinde bulunan had ağları, öbür nöronlara sinyal ileten katmanlarda düzenlenmiş fonksiyonlardan oluşur.

Bu sinyaller, katmandan katmana makbul ve her temasın sinaptik kuvvetini ayarlayarak ağı yavaşça ayarlar. Hudut ağları ham manzaraları, görüntüleri sesi ve metni almaz. Daha fazla alıştırma yapılarından örnekler; tek sayılar, vektörler ve matrisler üzere cebirsel olarak çok boyutlu serilere dönüştürülür. Tüm bunları kapsayan dördüncü bir varlık tipiyse makbul doğrusal dönüşümlerin açıklamalarına eklenir.

Bu dönüşümlere karşın potansiyel olarak hassas haberleri, had ağının çıktılarından ayırt etmek birçok hengam mümkündür. Başkaca data kümelerinin kendileri de savunmasızdır zira umumide gizlenmezler ve data ihlallerine karşı savunmasız olan merkezi depolarda depolanırlar.

Şimdiye kadar en yaygın bilakis mühendislik makine tahsili olarak bilinen “membership inference attack” ve bu teknikle bir saldırgan, amaç modelin eğitildiği yapıya ilişkin olup olmadığını belirler. Anlaşılacağı üzere hassas haberleri bir done kümesinden kaldırmak, yine çıkarılamayacağı mealine gelmez zira yapay zekâ örnekleri yine oluşturmada son aşama başarılıdır.

Bir çalışmada Wisconsin Üniversitesi’nden araştırmacılar, tıbbi dozajı kestirim etmek üzere eğitilmiş bir makine öğrenme modelinden hastaların genomik haberlerini aldılar. Bir vesair çalışmada ise Carneige Mellon ve Wisconsin-Madison Üniversitesi araştırmacıları, yüz tanıma yapmak için eğitilmiş bir modelden belli başlı kafa çekimi imgelerini tekrar oluşturmayı başardılar.

Daha karmaşık bir done çıkarma saldırısı, üretilen örnekleri ve gerçek yerküredeki örnekleri birbirinden ayırmaya çalışan ve birbirine zıt biçimde çalışan iki modüllü yapay zekâ sistemleri olan generative adversarial networks’ü (GAN) kullanır. Bu sistemde generator daima yeni data üretirken discriminator ise generator tarafından üretilen datanın gerçekliğini denetim eder.

Birleşik öğrenme:

Basit bir halde tanımlamak gerekirse birleşik öğrenme, yapay zekâ algoritmasını merkezi olmayan aygıtlar yahut bu örnekleri değiştirmeden olgu örnekleri tutan sunucular (yani düğümler) üzerinden eğiterek, birden ziyade tarafın olguları serbestçe paylaşmadan ortak bir makine öğrenme modeli oluşturmasını sağlayan bir tekniktir. Bu teknik, lokal done örneklerinin yaygın bir halde dağıtıldığını varsayan klasik merkezi olmayan yaklaşımların tam zıttıdır.

Merkezi bir sunucu, algoritmanın adımlarını düzenlemek ve bir referans saat olarak hareket etmek için kullanılabilir yahut düzenleme P2P (peer-to-peer) formunda olabilir ki bu durumda sunucu yok demektir. Buna karşın mahallî modeller, mahallî data örnekleri üzerinde eğitilir ve tartılar global bir model oluşturmak için birtakım frekanslarda modeller arasında değiştirilir.

Yinelemeli bir süreç olan bu teknikte mahallî modeller, her bir düğümde bir seri potansiyel model güncellemesi üretmek üzere düğümlerde eğitilir. Daha sonra lokal güncellemeler tek bir umumi güncellemede toplanarak işlenir ve umum modele uygulanır.

Birleşik öğrenme, bu meydanda öncü olan Google tarafından üretime yerleştirilmiştir. Google, bu tekniği şahsileştirme için Gboard’da iOS ve Android cihazlarının on milyonlarcasında kullanıyor.

Tabii ki hiçbir teknik kusursuz değildir ve birleşik öğrenme, öğrenme sürecinde düğümler arasında sık muhabere gerektiriyor. Makine öğrenme modellerinin parametre alışverişinde bulunabilmesi için değerli ölçüde süreç gücüne ve belleğe muhtaçlık vardır. Öbür zorluklar arasında eğitim örneklerinin denetlenememesi üzere değişkenler bulunmaktadır.

Diferansiyel zımnilik:

Henüz yeni sayılabilecek bir siber güvenlik yaklaşım modeli sayılabilecek diferansiyel saklılık, teknoloji şirketlerinin ferdi kullanıcıların kapalılığını korurken, kullanıcı alışkanlıkları hakkında haberler toplayabilmesine de imkan tanır. Yani bu modelde nadir detayların ezberlenmesi önlenir ve sonuncu kişi hakkındaki haberlerin çıkarılamayacağını garanti edilir.

Teknoloji devi Apple, 2017 yılından beri tanınan emojilerini, Safari’deki medya oynatma tercihlerini ve daha fazlasını tanımlamak için bir çeşit diferansiyel saklılık kullanıyor ve şirket en şimdiki iOS sürümünde (iOS 13) bunu birleşik öğrenme ile birleştirdi. Her iki teknik de Siri’nin sunduğu sonuçların yanı sıra Apple’ın QuickType klavyesi ve iOS’un Found In Apps tatbiklerinin güzelleştirilmesine yardımcı oluyor.

Ne yazık ki diferansiyel kapalılık de eksiksiz değil. Bu teknikte temel olgulara, girişe, çıkışa yahut parametrelere entegre edilen gürültü, umumi modelin performansını tesirler. Daha evvel yapılan bir çalışmada araştırmacılar, eğitim olgu setine gürültü eklendikten sonra iddia doğruluğunun %94,4’ten %24,7’ye düştüğünü belirttiler.

Homomorfik şifreleme:

Homomorfik şifreleme yeni bir şey değil zira birinci şema, IBM araştırmacısı Craig Gentry tarafından 2009 yılında geliştirildi. Temel olarak bu teknik, şifreli metinlerde hesaplama yapılmasına imkan sağlayan, şifresi çözüldüğü vakit düz metin üzerinde yapılmış üzere süreçlerin sonucuyla eşleşen şifreli bir sonuç üreten bir şifreleme halidir ve dış asıllı depolama ve hesaplamanın kapalılığını korumak için kullanılır.

Intel’in IoT öbeğinin yönetici yardımcısı Jonathan Ballon, bu yılın başlarında yapılan bir röportajda “MRI imgelerimi gönderirsem, hekimimin onları derhal görebilmesini lakin diğer hiç kimsenin görmemesini istiyorum” demişti. “Homomorfik şifreleme, modelin kendisinin de şifrelenmesini sağlar. Bu yüzden bir şirket, bu modeli umum bir buluta koyabilir ve bulut sağlayıcısının modellerin neye benzediğine dair hiçbir fikri yoktur.”

Pratikte, homomorfik şifreleme çalışmaları şimdi asrî donanımı tam olarak kullanamamaktadır ve en azından klâsik modellerden daha yavaş bir büyüklük sistemindedir. Gelgelelim hızlandırılmış bir şifreleme kütüphanesi olan cuHE üzere daha yeni girişimler, evvelki pratiklere nazaran çeşitli şifreleme hizmetlerini 12 ila 50 kat arasında hızlandırabiliyor. Bu noktada Facebook’un PyTorch makine öğrenme yapısı ve TensorFlow üzerine kurulmuş olan PySyft ve tf-encrypted üzere kütüphaneler son aylarda büyük adımlar attı.

Birkaç ay evvel Intel araştırmacıları HE-Transformer’ın halefi olan nGraph-HE2’yi, mahallî aktifleştirme işlevlerini kullanarak standart, evvelden eğitilmiş makine öğrenme modellerinde çıkarım yapılmasını sağlamak için önerdiler.

Yayınlanan bir makalede, iş hacminde skaler kodlama (sayısal bir bedelin bir bit serisine kodlanması) açısından çalışma müddetinin 3 kat ile 88 kat daha süratli olduğu ve ek çarpma ve ekleme optimizasyonlarının da 2,6 kat ile 4,2 kat süratli olduğunu bildirildi.

Daha gidilecek çok yol var:

Yeni teknikler, yapay zekâ ve makine tahsilinin tabiatında bulunan kimi kapalılık sıkıntılarını çözebilir lakin daha yolun çok başındalar ve birçok eksiklikleri bulunuyor.

Birleşik öğrenme, öğrenme sürecinde düğümler arasında sık muhabere gerektiriyor ve eğitim örneklerinin denetlenmensi epeyce güç. Öte yandan diferansiyel gizlilikteyse temel datalara, girişe, çıkışa yahut parametrelere entegre edilen gürültü, umumî modelin performansını etkiliyor ve doğrulukta düşüşlere neden oluyor. Homomorfik şifrelemeye gelince, biraz yavaş ve sayısal olarak çok emek istiyor.

Yine de gelecekte yapay zekâ teknolojisinde ne üzere gelişmeler yaşanacağını ve kapalılık meselelerinin nasıl çözüleceğini merak ediyoruz. Nasıl gelişmeler olacağını ise lakin yaşayıp daima birlikte görebileceğiz.

Yapılan Yorumlar
Bir Yorum Yapın

Çerez Örnek