KFN Haberleri: Gemini’de Kritik Açık: Google Sorumluluk Almıyor!
Google'ın yapay zeka sohbet robotu Gemini'de, kullanıcıların önceki sohbet verilerini sızdırabilen kritik bir güvenlik açığı tespit edildi. Güvenlik araştırmacıları tarafından "Prompt Bleeding" olarak adlandırılan zafiyetin ciddiyetine rağmen, Google'ın yaptığı açıklama teknoloji dünyasında "sorumluluktan kaçma" olarak yorumlandı.
Son dönemin en popüler yapay zeka araçlarından biri olan Google Gemini, potansiyel olarak milyonlarca kullanıcının verisini riske atan ciddi bir güvenlik açığıyla gündemde. Önde gelen siber güvenlik firmalarından birinin araştırmacıları, özel olarak hazırlanmış komutlar (prompt) aracılığıyla, Gemini'nin farklı kullanıcı oturumlarındaki sohbet parçacıklarını ve hassas bilgileri sızdırabildiğini ortaya çıkardı.
Zafiyet Nasıl Çalışıyor: "Prompt Bleeding" Tehlikesi
"Prompt Bleeding" (Komut Sızdırması) olarak adlandırılan bu zafiyet, saldırganın belirli ve karmaşık bir komut dizisi girerek modelin güvenlik katmanlarını atlatmasına ve belleğindeki alakasız veri parçalarını yanıtına dahil etmesine neden oluyor. Bu sızan veriler arasında, başka kullanıcıların daha önceki sohbetlerinde paylaştığı kişisel bilgiler, e-posta adresleri, kod parçacıkları ve hatta parolalar gibi kritik veriler bulunabiliyor.Güvenlik firması, zafiyeti keşfettikten sonra sorumlu bir şekilde Google'a bildirdiğini ve düzeltilmesi için zaman tanıdığını belirtti.
Google'ın Tepkisi Tartışma Yarattı
Tüm gözlerin çevrildiği Google'dan gelen açıklama ise beklenenin aksine endişeleri gidermek yerine artırdı. Google, yaptığı resmi açıklamada durumun "beklenmedik bir özellik" olduğunu ve zafiyetin tetiklenmesinin "son derece spesifik ve kasıtlı girdiler" gerektirdiğini belirterek riskin düşük olduğunu savundu.Şirket, bu tür bir sızıntının standart kullanım senaryolarında meydana gelme olasılığının çok düşük olduğunu vurguladı ve kullanıcılara "güvenilmeyen kaynaklardan gelen komutları girmemeleri" yönünde bir tavsiyede bulundu. Bu açıklama, birçok siber güvenlik uzmanı tarafından topu kullanıcılara atmak ve sorumluluğu kabul etmemek olarak değerlendirildi.
Uzmanlar Uyarıyor: "Risk Küçümsenemez"
Siber güvenlik uzmanları, Google'ın tutumunun tehlikeli olduğunu ve zafiyetin potansiyel etkilerinin küçümsendiğini belirtiyor. Bir saldırganın, bu açığı kullanarak geniş ölçekli bir veri toplama operasyonu yürütebileceği ve elde edilen bilgileri kimlik avı saldırıları veya diğer kötü niyetli faaliyetler için kullanabileceği konusunda uyarıyorlar.Bu gelişme, yapay zeka modellerinin güvenliği ve bu sistemlere emanet edilen verilerin korunması konusundaki tartışmaları yeniden alevlendirdi.
Peki siz, Google'ın bu tutumu hakkında ne düşünüyorsunuz? Yapay zeka kullanırken veri güvenliğinizden endişe ediyor musunuz?