Güvenlik Online - Sosyal Medya'da Paylaş!
4 Büyük Üniversiteden Korkutan Yapay Zeka Raporu - Makale Detayı Lütfen paylaşmak istediğiniz sosyal medya platformunu seçiniz!
 
Güvenlik Online - Güvenlik Sektörünün Yeni Adı
Hava Durumu
İSTANBUL °C
Güvenlik Online YouTube Güvenlik Online LinkedIn Güvenlik Online Google+ Güvenlik Online Instagram Güvenlik Online Twitter Güvenlik Online Facebook
EN ÇOK OKUNAN MAKALELER
    Makaleler Yükleniyor Makaleler Yükleniyor...
E-BÜLTENİMİZE ABONE OLUN!
Sektördeki son haberleri takip etmek için ücretsiz haftalık bültenimize abone olun...
Kariyer
Sektörden İş Fırsatları Güvenlik sektöründeki iş fırsatlarını buradan takip edebilirsiniz! Aradığınız kariyer fırsatları burada...
MAKALE DETAYI
Anasayfa       Makaleler

4 Büyük Üniversiteden Korkutan Yapay Zeka Raporu

Bilim adamları, ’Yapay Zekanın Kötü Amaçlı Kullanımı: Öngörü, Önleme ve Etki Azaltma’’ isimli, önemli bir makale yayınladı.

Paylaş : Paylaş   Paylaş   Paylaş   Paylaş   Paylaş
Yazdır Yazdır            Arkadaşına Gönder Arkadaşına Gönder
Büyült / Küçült   +   -
4 Büyük Üniversiteden Korkutan Yapay Zeka Raporu
Dünyanın önde gelen üniversitelerinden olan Stanford, Yale, Oxford ve Cambridge önde gelen bilim adamları ve siber güvenlik uzmanları ‘’Yapay Zekanın Kötü Amaçlı Kullanımı: Öngörü, Önleme ve Etki Azaltma’’ isimli, önemli bir makale yayınladı. Makale, makine öğrenmeyi içeren yapay zekanın, olası kötü niyetli kötüye kullanımlarına ve siber güvenlik konusuna odaklanıyor.

Yapay zeka, normal koşullarda insanlar için mevcut olan analiz fonksiyonlarını yerine getirmek için bilgisayarların ‘’makine hızı’’ ile kullanılmasıdır. “Makine hızı” ise birden fazla yazılım programında, 20 mikrosaniyenin altında milyonlarca hesaplamanın yapılabilmesi” olarak tanımlanıyor.  Makalede yapay zeka faydalı amaçların yanı sıra kötü amaçlar için de kolayca kullanılabileceğinin altı çiziliyor.

Mevcut Makine Öğrenimi ( Machine Learning- ML) ve Son Nokta Koruması

Günümüzde, AI'nin makine öğrenimi alanındaki en yaygın kullanımı, en yeni anti-malware yazılımlarında bulunuyor. Makine öğrenmesi sayesinde antivirüs AI algoritmaları, milyonlarca kötü amaçlı yazılımı, davranış kalıplarından öğreniyor.

Sistemin öğrenebilmesi “öğrenme” algoritmasının kalitesine ve veri tabanına bağlı olarak gerçekleşiyor. Bu anlamda manipülasyon veya algoritmanın değiştirilmesi gibi potansiyel bir istismar, makinenin öğrendiği veri kümesinin enfekte olmasına neden olabiliyor. Uzmanlar bu durumu ‘’veri zehirlenmesi’’ olarak tanımlıyor.

Raporda, “ML algoritmalarının güvenlik açıkları da sahip olduğu gösterildi. Bunlar, yanlış sınıflandırma veya eğitim verilerinin zehirlenmesi gibi ML'ye özgü güvenlik açıklarını içerir. ML algoritmaları, bellek taşması gibi geleneksel açıklara da sahiptir. Şu anda, siber güvenlik araştırmacıları arasında, ML sistemlerinin güvenliğini anlamak için bir ilgi var. Ancak şu anda elimizde cevaplardan çok daha fazla soru var. ” açıklaması yer alıyor. Bir modelin yanlış eğitildiğini veya yanlış bir sınıflandırmayı gerçekleştirdiğini teşhis etmek zor olabiliyor. Sorun şu ki, AI'yi geliştiren bilim adamları bile Algoritmaların, alanda nasıl çalıştıklarını anlamıyorlar .

Basitçe söylemek gerekirse, siber güvenlik endüstrisi, AI'nın potansiyel zararlı kullanımının farkında ve buna en iyi nasıl tepki vereceğini düşünüyor. Raporda biyolojik enfeksiyonlara karşı antibiyotik kullanıldığında, virüslerin zamanla daha dirençli hale gelmesi gibi, AI savunma taktiklerinin de zamanla değişeceği vurgulanıyor.

Kimlik  Doğrulama Sorunları

AI'nın olası kötü niyetli kullanımı için ikinci bir alan 'kimlik' etrafında odaklanıyor. AI'nın sadece görüntüleri tanıyabilme yeteneğini değil görüntü üretebilme yeteneği de hızla gelişiyor.
Teröristlerin tespiti için yüz tanıma yararlı olabilir. Ancak yüz tanıma kişileri sınıflandırmak için de kullanılıyor. Örneğin geçtiğimiz günlerde Stanford araştırmacıları, sosyal medya profil fotoğraflarına dayalı olarak birisinin eşcinsel olup olmadığını anlamak için kullanılabilecek bir algoritma yayınladı. Tartışmalı çalışma birçok kesimden tepki topladı.

Çalışmanın etik tartışmaları bir yana, ortaya çıkan tablo aslında daha büyük bir tehlikenin habercisi olarak yorumlandı. Algoritmanın doğruluğu, erkeklerde% 91 ve kadınlarda ise % 83'e olarak gerçekleşti. Araştırmaya katılan insanlarda, doğruluk oranı kadınlar için % 61, erkekler için % 54 seviyesinde kaldı. Sonuçta yapay zeka bir kez daha insan performansını geride bıraktı. Yapay zekanın kötüye kullanılması ile ilgili bu örnek, teknolojinin etik konusuna geldiği noktayı vurguluyor.

Yapay zeka, yüz ve konuşma tanıma ile birlikte sentetik görüntüler, metin ve ses üretiminde de hızlı bir ilerleme yaşıyor. Raporda, “çevrimiçi ortamda başkalarının kimliğine bürünmek için yapay zeka kullanılabilir. Yapay zeka tarafından oluşturulan içeriğin sosyal medya kanalları aracılığıyla dağıtılarak kamuoyunu etkileyebilir.” uyarısında bulunuyor.

Makineler ve insanlar arasındaki çizgiler ortadan kalktıkça, kimlik doğrulama sistemlerinde değişikliğe gidilmesi kaçınılmaz görünüyor. Bugün, kimlik doğrulama çeşitli insanlar arasında ayrım yapmak ve bir kişinin diğerini taklit etmesini önlemek için kullanılıyor. Görünen o ki gelecekte, insanlar ve makineler arasında da ayrım yapmamız gerekecek.

Rapor yapay zekanın gelişen tehditlerini “daha iyi tahmin etmek, önlemek ve azaltmak” için dört üst düzey öneride bulunuyor. Bunlar:
1- Hükümetler ve yapay zeka üreticileri arasında daha fazla işbirliği
2- AI araştırmacıları tarafından etik en iyi uygulamaların benimsenmesi
3- Çift kullanımlı endişeleri ele almak için bir metodoloji
4- Konuların tartışılmasında yer alan paydaşların ve alan uzmanlarının genişlemesi.

 


Bu Makalenin Yorumları
Yorum bulunmamaktadır...



Yorum Yazın