Site Rengi

Bornova'dan…

Yapay zekâya ne kadar güvenebiliriz?

Yapay zekâ asistanınıza güvenmeden evvel iki sefer düşünmelisiniz çünkü data tabanı zehirlenmesi asistanınızın çıktılarını kıymetli ölçüde hatta tehlikeli bir halde değiştirebilir.  

  • 03 Şubat 2025
  • Yapay zekâya ne kadar güvenebiliriz? için yorumlar kapalı
  • 93 kez görüntülendi.
Yapay zekâya ne kadar güvenebiliriz?
TEKİL YAZI 1 REKLAM ALANI

Yapay zekâ asistanınıza güvenmeden evvel iki defa düşünmelisiniz çünkü bilgi tabanı zehirlenmesi asistanınızın çıktılarını kıymetli ölçüde hatta tehlikeli bir biçimde değiştirebilir.  Siber güvenlik şirketi ESET güvenlik, zımnilik ve inançtan ödün vermeden yapay zekânın potansiyelini nasıl ortaya çıkarabilirizi araştırdı, tekliflerini paylaştı.

 

Sürekli ortaya çıkan sayısız güvenlik açığından da görebileceğimiz üzere çağdaş teknoloji kusursuz olmaktan çok uzak. Tasarım açısından inançlı sistemler tasarlamak denenmiş ve doğrulanmış bir en yeterli uygulama olsa da bunu yapmak kaynakları kullanıcı tecrübesi (UX) tasarımı, performans optimizasyonu ve öteki tahliller ve hizmetlerle birlikte çalışabilirlik üzere öteki alanlardan uzaklaştırabilir. Bu nedenle, güvenlik ekseriyetle art planda kalır ve sadece minimum uyumluluk gerekliliklerini yerine getirir. Bu değiş tokuş bilhassa hassas datalar kelam konusu olduğunda kaygı verici hale gelir zira bu tıp bilgiler kritiklikleriyle orantılı müdafaalar gerektirir. Günümüzde, yetersiz güvenlik tedbirlerinin riskleri, bilgilerin fonksiyonelliklerinin temelini oluşturduğu yapay zekâ ve makine tahsili (AI/ML) sistemlerinde giderek daha besbelli hale gelmektedir. 

Veri zehirlenmesi nedir?

Yapay zekâ ve makine tahsili modelleri, kontrollü ve kontrolsüz öğrenme yoluyla daima olarak güncellenen temel eğitim data kümeleri üzerine inşa edilir. Makine tahsili yapay zekânın gelişmesinde kıymetli rol oynar. Makine tahsili sayesinde gerçekleşen derin öğrenme, öteki etkenlerle birlikte yapay zekânın yeteneklerini ilerletmesini mümkün kılar. Datalar ne kadar çeşitli ve emniyetli olursa modelin çıktıları da o kadar hakikat ve kullanışlı olacaktır. Bu nedenle, eğitim sırasında bu modellerin büyük ölçüde dataya erişmesi gerekir. Öte yandan, doğrulanmamış yahut uygun incelenmemiş data kümeleri güvenilmez sonuçların ortaya çıkma mümkünlüğünü artırdığından data yığınlarına güvenmek riskleri de beraberinde getirmektedir. Üretken yapay zekânın, bilhassa de büyük lisan modellerinin (LLM’ler) ve bunların yapay zekâ asistanları formundaki uzantılarının, modelleri makûs niyetli hedeflerle kurcalayan hücumlara karşı bilhassa savunmasız olduğu bilinmektedir.  En sinsi tehditlerden biri, düşmanların modelin davranışını değiştirmeye çalıştığı ve yanlış, önyargılı ve hatta ziyanlı çıktılar üretmesine neden olduğu bilgi (veya data tabanı) zehirlenmesidir. Bu çeşit tahrifatların sonuçları uygulamalar ortasında dalgalanarak inancı sarsabilir ve hem beşerler hem de kuruluşlar için sistemik riskler doğurabilir.

Veri zehirlenmesi türleri

Veri zehirleme taarruzlarının çeşitli cinsleri vardır, örneğin:

·       Veri enjeksiyonu: Saldırganlar, bir yapay zekâ modelinin davranışını değiştirmesini sağlamak için eğitim datalarına makus emelli bilgi noktaları enjekte eder. Çevrimiçi kullanıcıların Tay Twitter botunu saldırgan tweetler atacak formda yavaşça değiştirmesi buna yeterli bir örnektir.

·       İçeriden ataklar: Normal içeriden tehditlerde olduğu üzere, çalışanlar erişimlerini berbata kullanarak bir modelin eğitim setini değiştirebilir, davranışını değiştirmek için modül parça değiştirebilirler. İçeriden ataklar bilhassa sinsidir zira legal erişimden faydalanırlar.

·       Tetikleyici enjeksiyonu: Bu atak, bir tetikleyici oluşturmak için yapay zekâ modelinin eğitim setine bilgi enjekte eder. Bu, saldırganların bir modelin güvenliğini aşmasına ve belirlenen tetikleyiciye nazaran durumlarda çıktısını manipüle etmesine imkan tanır. Bu atağın tespit edilmesindeki zorluk, tetikleyicinin tespit edilmesinin sıkıntı olabilmesinin yanı sıra tetikleyici etkinleştirilene kadar tehdidin uykuda kalmasıdır.

·       Tedarik zinciri saldırısı: Bu atakların tesirleri bilhassa müthiş olabilir. Yapay zekâ modelleri ekseriyetle üçüncü taraf bileşenleri kullandığından tedarik zinciri sürecinde ortaya çıkan güvenlik açıkları sonuçta modelin güvenliğini tehlikeye atabilir ve onu istismara açık hale getirebilir.

Yapay zekâ modelleri hem iş hem de tüketici sistemlerine derinlemesine gömüldükçe asistanlar yahut verimlilik artırıcılar olarak hizmet verdikçe bu sistemleri maksat alan akınlar değerli bir kaygı kaynağı haline geliyor. Kurumsal yapay zekâ modelleri bilgileri üçüncü taraflarla paylaşmasa da çıktılarını güzelleştirmek için şirket içi dataları silip süpürmeye devam ediyor. Bunu yapmak için hassas bilgi hazinesine erişmeleri gerekir, bu da onları yüksek pahalı amaçlar haline getirir. Çoklukla hassas datalarla dolu olan kullanıcı komutlarını öteki taraflarla paylaşan tüketici modelleri için riskler daha da artmaktadır.

Makine tahsili ve yapay zekâ gelişimi nasıl teminat altına alınır?

ML/AI modelleri için önleyici stratejiler hem geliştiricilerin hem de kullanıcıların farkındalığını gerektirir. Temel stratejiler şunları içerir:

·       Sürekli denetimler ve kontroller: Kötü niyetli manipülasyon yahut önyargılı bilgilerin onları tehlikeye atmasını önlemek için AI/ML modellerini besleyen bilgi kümelerinin bütünlüğünü daima olarak denetim etmek ve doğrulamak kıymetlidir.

·       Güvenliğe odaklanın: Yapay zekâ geliştiricilerinin kendileri de saldırganların maksadında olabilir, bu nedenle proaktif tedbire, erken tespit ve sistemik güvenlik denetimleri ile atak yüzeyini en aza indirmeye yönelik tedbire öncelikli bir yaklaşım sağlayabilecek bir güvenlik kurulumuna sahip olmak, inançlı geliştirme için olmazsa olmazdır.

·       Çekişmeli eğitim: Daha evvel de belirtildiği üzere, modeller çoklukla öğrenmelerini yönlendirmek için profesyoneller tarafından denetlenir. Tıpkı yaklaşım, modellere makus niyetli ve geçerli data noktaları ortasındaki farkı öğretmek için de kullanılabilir ve sonuçta zehirleme taarruzlarının engellenmesine yardımcı olur.

·       Sıfır itimat ve erişim yönetimi: Hem içeriden hem de dışarıdan gelen tehditlere karşı savunmak için bir modelin temel datalarına yetkisiz erişimi izleyebilen bir güvenlik tahlili kullanın. Bu halde kuşkulu davranışlar daha kolay tespit edilebilir ve önlenebilir. Ek olarak, sıfır inanç ile hiç kimseye varsayılan olarak güvenilmez ve erişim müsaadesi verilmeden evvel birden fazla doğrulama yapılması gerekir.

Kaynak: (BYZHA) Beyaz Haber Ajansı

TEKİL YAZI 2 REKLAM ALANI
ZİYARETÇİ YORUMLARI

Henüz yorum yapılmamış. İlk yorumu aşağıdaki form aracılığıyla siz yapabilirsiniz.

BİR YORUM YAZ