BSI, chatbot tehlikeleri ve derin pake sahtekarlığı konusunda uyarıyor

Bilgin

Global Mod
Global Mod
BSI uyarıyor


AI riskleri: sohbet botlarının ve daha derinlerin güvenli kullanımı


10.02.2025 – 8:28 tarihinde güncellendiOkuma Süresi: 2 dakika.

Chatgpt: Yapay zekanın ürettiği tüm bilgiler gerçeğe karşılık gelmez. (Sembol görüntüsü)

Resmi büyütmek


Chatgpt: AI'nın ürettiği tüm bilgiler gerçeğe karşılık gelmez. (Sembol görüntüsü) (Kaynak: ImaGo/Nicolas Economou)


Uzun metni hızlı bir şekilde özetleyin veya karmaşık denklemin çözülmesini sağlayın: AI günlük yaşamda size yardımcı olur, ancak size karşı da kullanılabilir.


Oluşturulan görüntülerden, videolardan ve ses içeriğinden sesli modellerden metinlere kadar: Artık günlük yaşamda AI programlarının ürünleriyle sürekli karşılaşıyoruz. Özellikle, AI ile sohbet yoluyla iletişim kurarsanız, Federal Bilgi Teknolojisi Ofisi (BSI) tavsiyelerde bulunur.


Bir yandan, AI programları tarafından işlenen büyük miktarda veri elbette sağlayıcının kendisi için ilginçtir. Bu nedenle, ilgili şirketin veri koruma beyanlarında ve hüküm ve koşullarında kullanılmadan önce, üreticinin kendilerini gerçekten kişisel ve kullanım verileri açısından hangi haklara verdiğini bulmalıdır.


Öte yandan, veri miktarları siber suçlular olay yerine çağırıyor, BSI uyardı. Bunlar, kullanıcılardan gelen girişleri okumaya veya sohbetleri, özellikle şifreler veya kredi kartı detayları gibi kişisel veya hassas veriler istenecek şekilde veya kimlik avı web sitelerine bağlantıların verileceği şekilde manipüle etmeye çalıştı.


Buna ek olarak, AI çalışmaz ve kesinlikle her zaman güvenilir değildir: sesli modeller her zaman sadece eğitildikleri veriler kadar iyidir. Ayrıca sansürlenebilir, yanlış bilgi harcayabilir veya hatta oluşturabilirler. AI tarafından dahil edilen yanlış bilgiye halüsinasyonlar denir.


Aynı zamanda, AI'nın yardımıyla suçlular da sahtekarlık dikişlerini mükemmelleştiriyorlar: AI, olası tüm dillerde olası tüm gerçekleri ikna edici bir şekilde formüle edilmiş e-postalar yaratıyorlar.


Ve videoları manipüle etmek veya sesli nipsellerden (DeepFakes) aldatıcı gerçek görünümlü sesler üretmek için AI kullanırlar. Örneğin, bunu yaparken, telefonda akrabalar veya çağrılan insanların diğer yakın temasları olarak geçirirler, örneğin acil bir durum oynarlar ve para ister: AI desteği ile klasik torun hilesi.


BSI, AI kullanımından kaynaklanabilecek tehditlere karşı korumak için:


Bu, özellikle, örneğin, kontağın bir şok karakteri varsa veya zaman veya kravatın altına koyması durumunda geçerlidir. Şüphe durumunda, ilgili kişiye veya doğrudan ilgili olan kişiye, tercihen iyi bilinen bir sayı altında telefonla tekrar sorun.