ChatGPT üzere üretken yapay zeka araçlarının kullanımının yaygınlaşması, şahsî bilgiler için yeni tehlikeleri beraberinde getiriyor. Bir siber güvenlik firmasının araştırmasına nazaran, ChatGPT benzeri araçları kullanan şirketler, kapalı bilgilerini ve ticari sırlarını yapay zeka ile paylaşıyor olabilir.
ChatGPT üzere araçlar şirketlerin saklı bilgilerini ifşalayacak
Team8’in yürüttüğü yeni araştırma, bilgisayar korsanlarının saklı kurumsal bilgilere erişmek için ChatGPT’yi kullanabileceğini ortaya çıkardı. Yapay zeka sohbet botları ve öbür yazı araçlarını kullanan şirketler, data sızıntılarına karşı savunmasız kalabilir. Ayrıyeten sohbet botlarına aktarılan dataların silinmesi de epey sıkıntı olabilir.
Rapor, üretken yapay zekayla temaslı bilgi çalınma riskini “yüksek dereceli” olarak sınıflandırdı. Fakat Team8 araştırmacıları, uygun tedbirlerin alınması durumunda risklerin “yönetilebilir” olabileceğini tabir etti. Ayrıyeten ChatGPT’nin oluşturduğu yanlış bilgilerin tehdit oluşturduğuna dikkat çekildi.
Bu telaşlara karşın, Microsoft ve Google gibi teknoloji şirketleri yapay zeka yarışında geri kalmak istemiyor. Lakin rapor, bu araçların zımnî bilgilerle beslenmesi durumunda bilgileri silmenin çok güç olabileceğine dikkat çekti.
Buna ek olarak ChatGPT üzere araçlar, telif hakkı konusunda da tartışmalara yol açtı. Örneğin birçok yazılımcı, kendi kodlarına bakarak yeni kodlar yazdığını düşünüyor. Misal formda sanatkarlar ise yapay zekanın oluşturduğu görsellere karşı çıkıyor.
Siber güvenlik firmasının bu araştırması, ABD Siber Komutanlığı’nın eski Lideri Michael Rogers tarafından da desteklendi. Ayrıyeten birçok firmanın bilgi güvenliği araştırmacısının imzasını içeriyor.
Peki siz ChatGPT üzere araçların şahsî bilgiler için tehlike yaratacağını düşünüyor musunuz? Görüşlerinizi bizimle paylaşın.
Fotoğraf makinesine dönüşen Xiaomi 13 Ultra!
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.