İle Jose Blaya, Mühendislik Direktörü, Özel İnternet Erişimi
Jose Blaya, bireyler olarak verilerimizi korumak ve kişisel bilgilerimizi güvende tutmak için adımlar atmamız gerektiğini yazıyor.
Lansmanından bu yana, ChatGPT ve yapay zekanın getirdiği olanaklar hararetle tartışılıyor.
Birçoğu, insan zekasını büyütecek bu neredeyse sınırsız aracı merak ederken, bu akıllı öğrenme platformlarının sunduğu büyük ölçüde ölçülemeyen risklere ilişkin endişeler dile getirildi.
Geçen ay İtalya, ChatGPT’ye karşı çıkarak, “ChatGPT gizliliğe saygı duyana kadar” platformu yasaklayan ilk Batılı ülke oldu.
Öyleyse, bu yeni araçların mahremiyet üzerindeki etkileri nelerdir ve onlar hakkında ne kadar endişelenmeliyiz?
Konuşmalı AI’nın mahremiyet kara deliği
ChatGPT’nin gelişigüzel veri toplama yöntemi göz önüne alındığında, sosyal medya, blog gönderileri, ürün incelemeleri, sohbet forumları ve hatta herkese açıksa e-posta dizileri dahil olmak üzere çok çeşitli kaynak materyalden yararlanabilir.
Bu, hem kişisel bilgilerin hem de verilerin insanların bilgisi veya rızası olmadan kullanıldığı anlamına gelir.
ChatGPT’ye kaydolursanız, ChatGPT ile yaptığınız tüm veri etkileşimleri ve daha geniş internet tarama etkinliği bir yana, IP adresinizin, tarayıcı tipinizin ve ayarlarınızın tamamının saklanmasına izin veren bir gizlilik politikasını kabul etmiş olursunuz.
Tüm bunlar, “size ayrıca bildirimde bulunulmaksızın” belirtilmemiş üçüncü taraflarla paylaşılabilir.
Kişisel bilgiler, doğru soruyu soran yanlış kişi tarafından ifşa edilebilir
ChatGPT, diğer çevrimiçi etkinliklerinizin yanı sıra onunla yaptığınız görüşmeleri analiz ederek her kullanıcının ilgi alanları, inançları ve endişelerinin bir profilini geliştirir.
Bu aynı zamanda günümüzün arama motorları için de geçerlidir, ancak “akıllı” bir öğrenme platformu olarak ChatGPT, hem kullanıcıyla hem de kendisine verilen bilgilerle tamamen yeni bir şekilde etkileşim kurma potansiyeline sahiptir ve sizi kandırarak sizi kandırabilecek bir diyalog oluşturur. bir AI sistemiyle değil, başka bir insanla konuşuyor.
ChatGPT, tüm bu girdileri bir araya getirir ve “herhangi bir şeyi yanıtlamak” için daha önce mümkün olmayan bir ölçekte analiz eder.
Doğru soru sorulursa, hem kullanıcılarının hem de internette gönderi paylaşan veya adı geçen herkesin kişisel bilgilerini kolayca ifşa edebilir.
Bir bireyin rızası olmadan, siyasi inançları veya cinsel yönelimi ifşa edebilir. Buna karşılık, bu, utanç verici ve hatta kariyeri mahveden bilgilerin ifşa edilmesi anlamına gelebilir.
ChatGPT’nin yanlış anlama ve hatta uydurma konusundaki kanıtlanmış eğilimi, zarar verici ve asılsız iddialara yol açabilir.
Bazı insanlar yine de bunlara inanacak ve chatbot’un daha önce saklanan ve gizli bilgileri ortaya çıkardığı inancıyla daha fazla yanlış beyanda bulunacaktır.
Temel önlemler bu sorunları çözebilir mi?
Bu makine öğrenimi sistemlerinin gücü göz önüne alındığında, programlarına temel koruma önlemleri bile eklemek zordur.
Tüm önermeleri, çok büyük miktarda veriyi analiz edebilmeleri, çevrimiçi olarak halka açık olanların her köşesinde arama yapabilmeleri ve bunlardan çok hızlı bir şekilde sonuçlar çıkarabilmeleridir.
Chatbot’un birinin bilgisi veya rızası olmadan veri topladığını tespit etmenin bir yolu yoktur ve kaynaklar olmadan size verilen bilgilerin güvenilirliğini kontrol etme imkanı yoktur.
İnsanların mevcut güvenlik önlemlerini “jailbreak” yapmayı ne kadar kolay başardıklarını gördük, bu da platformlara yerleşik başka kuralların da etrafından dolaşılamayacağına dair çok az umut veriyor.
Gizlilik yasaları ayak uyduramıyor
Henüz tam olarak görmediğimiz bu yeni tehdide ayak uydurmak için gizlilik yasalarının yetişmesi gereken çok şey var.
ChatGPT ve diğerlerinin verilerimizi kullanma şekli, özellikle hassas olduğunda ve bizi tanımlamak için kullanılabildiğinde, halihazırda gizliliğin açık bir ihlalidir.
Mevcut gizlilik yasalarının temel ilkelerinden biri olan bağlamsal bütünlük, bir kişinin bilgileri veya verileri kamuya açık olsa bile orijinal bağlamı dışında ifşa edilmemesi gerektiğini belirtir. Bu, ChatGPT tarafından göz ardı edilen başka bir kuraldır.
Yapay zeka sohbet robotlarının öğrenme yönteminin doğasında var olan veri koruma ihlallerine neredeyse hiç değinmedik.
Şu anda bireylerin, diğer şirketlerde yaptığınız gibi, üzerlerinde hangi kişisel bilgilerin saklandığını kontrol etme veya silinmesini talep etme prosedürleri yoktur.
Bu verilerin en başta saklanmasına da izin vermedik — yalnızca internette bir yerde bulunması ChatGPT’ye onu kullanma hakkı vermez.
Bu yeni yapay zeka çağında mahremiyetimizi nasıl koruyabiliriz?
Özel İnternet Erişimi, ChatGPT ve diğer AI platformlarında bulunan gizlilik risklerini yakından takip etmektedir.
Microsoft Bing, Google Bard ve Çinli teknoloji devi Baidu’s Ernie dahil olmak üzere birçok rakibin OpenAI’nin liderliğini hararetle kovalaması ve neredeyse tamamen düzenlemeye tabi olmayan bir sektörde, gizlilik ve güvenlik üzerindeki etkileri yalnızca büyüyor.
Yapay zekanın potansiyelini kucaklarken, sunduğu gizlilik tehdidine karşı tetikte olmalıyız. Gizliliğimizi koruyan yasa ve yönetmeliklerin uyum sağlaması gerekir.
Bireyler olarak, verilerimizi korumak ve kişisel bilgilerimizi güvende tutmak için adımlar atmalıyız.
Bu, bir makine öğrenimi platformunun artık bu bilgileri ne kadar kolay bulabileceğini, ayıklayabileceğini ve herkesle paylaşabileceğini bilmenin yanı sıra çevrimiçi olarak tam olarak neyi paylaşmaktan mutlu olacağımızı düşünmeyi içerir.
Nihayetinde, bu yeni teknolojiye ne kadar güvendiğimiz konusunda dikkatli olmalıyız, bize sunulan cevapları körü körüne kabul etmek yerine sorgulamalıyız.
Jose Blaya, bir çevrimiçi gizlilik şirketi olan Private Internet Access’te Mühendislik Direktörüdür.
Bu makale ilk olarak 17 Nisan 2023’te yayınlandı.
Euronews olarak, tüm görüşlerin önemli olduğuna inanıyoruz. Satış konuşması veya sunum göndermek ve sohbetin bir parçası olmak için [email protected] adresinden bize ulaşın.
Kaynak : https://www.euronews.com/2023/05/18/are-privacy-concerns-sparked-by-chatgpts-woes-as-bad-as-they-seem