ESET Türkiye Ürün ve Pazarlama Müdürü Can Erginkurban, ChatGPT gibi yenilikçi yapay zeka araçlarının avantajlarından yararlanmadan önce, çalışanların veri güvenliğini tehlikeye atmadan bu araçlarla nasıl güvenli bir şekilde etkileşim kuracaklarını bilmeleri gerektiğini vurgulayarak önemli bir riske dikkat çekti.
Yapay zeka araçları fikir geliştirmenize, metin parçalarını özetlemenize veya yeniden ifade etmenize, hatta bir iş stratejisi için bir temel oluşturmanıza yardımcı olabileceğini belirten ESET Türkiye Ürün ve Pazarlama Müdürü Can Erginkurban,yapay zekayı kullanırken araçlara girdiğiniz verilerin gönder düğmesine basıldığı anda kişiye ait olmaktan çıktığının unutulmaması gerektiğini vurguladı.
ESET Türkiye Ürün ve Pazarlama Müdürü Can Erginkurban, ''ChatGPT gibi büyük dil modellerini (LLM’ler) kullanırken temel kaygılardan biri, hassas verilerin büyük uluslararası şirketlerle paylaşılmasıdır. Bu modeller, kullanıcı sorgularını etkili bir şekilde yorumlamalarını ve yanıtlamalarını sağlayan çevrimiçi metinlerdir. Ancak bir sohbet robotu ile etkileşime girip bilgi veya yardım istediğimiz her seferde, istemeden de olsa kendimiz veya şirketimiz hakkında veri paylaşabiliriz. Bir sohbet robotu için bir istem yazdığımızda, girilen veriler herkese açık hale gelir. Bu, sohbet robotlarının bu bilgileri temel olarak diğer kullanıcılara yanıt vermek için hemen kullanacağı anlamına gelmez. Ancak LLM sağlayıcısı veya ortakları bu sorgulara erişebilir ve bunları teknolojinin gelecekteki sürümlerine dahil edebilir.'' şeklinde konuştu.
ChatGPT geçmişini kapatmak yeterli mi?
ChatGPT’nin arkasındaki kuruluş olan OpenAI, sohbet geçmişini kapatma seçeneğini sunarak kullanıcı verilerinin OpenAI’nin yapay zeka modellerini eğitmek ve geliştirmek için kullanılmasını engellediğini belirten Can Erginkurban, ''Bu şekilde kullanıcılar verileri üzerinde daha fazla kontrol sahibi oluyor. Çalışanlar ChatGPT gibi araçları kullanmak istiyorlarsa, sohbet geçmişini kapatmak ilk adımları olmalıdır. Sohbet geçmişi kapalı olsa bile, tüm istem verileri sohbet botu sunucularında saklanmaya devam eder. Tüm istemlerin harici sunuculara kaydedilmesi, bilgisayar korsanlarının yetkisiz erişimine yönelik potansiyel bir tehdit oluşturmaktadır. Ayrıca, teknik hatalar zaman zaman yetkisiz kişilerin diğer sohbet robotu kullanıcılarına ait verilere erişmesini sağlayabilir.'' dedi.
Şirket çalışanlarının en sık yaptığı hatalar
Müşteri verilerini girdi olarak kullanmak Çalışanların LLM’leri kullanırken yaptıkları ilk yaygın hata, şirketlerinin müşterileri hakkındaki hassas bilgileri paylaşmak olduğuna dikkat çeken Can Erginkurban, çalışanların sorgularını sohbet robotlarına girmeden önce kalıcı olarak anonimleştirmeyi bilmesi gerektiğini ve müşteri gizliliğini korumak için isim, adres veya hesap numarası gibi hassas bilgileri gözden geçirmeleri, dikkatlice ayıklamaları gerektiğinin altını çizen Erginkurban, en iyi uygulamanın, ilk etapta kişisel bilgileri kullanmaktan kaçınmak ve genel sorulara veya sorgulara güvenmek olduğunu belirtti.
Erginkurban, ''Gizli belgelerin sohbet robotlarına yüklenmesi Sohbet robotları, büyük hacimli verileri hızlı bir şekilde özetlemek ve taslaklar, sunumlar veya raporlar oluşturmak için değerli araçlar olabilir. Yine de ChatGPT gibi araçlara belge yüklemek, bu belgelerde saklanan şirket veya müşteri verilerini tehlikeye atmak anlamına gelebilir. Belgeleri basitçe kopyalamak ve araçtan sunum slaytları için özetler veya öneriler oluşturmasını istemek cazip gelse de bu veri açısından güvenli bir yol değildir. Bu, geliştirme stratejileri gibi önemli belgeler için geçerli olduğu gibi, toplantı notları gibi daha az önemli belgeler de çalışanların şirketlerinin değerli bilgi birikimini ortaya çıkarmasına yol açabilir. Çalışanların chatbottan bir özet veya yardım talep etmeden önce belgeleri manuel olarak incelemesi gerekir.'' diye konuştu.
Şirket verilerinin ChatGPT ‘de ifşa edilmesi hakkında Erginkurban, ''Şirketinizin bazı uygulamalarını ve iş akışlarını iyileştirmeye çalıştığınızı düşünün. ChatGPT’den zaman yönetimi veya görev yapısı konusunda yardım istiyorsunuz. Chatbotun bir çözüm geliştirmesine yardımcı olmak için bilgi istemine değerli bilgi birikiminizi ve diğer verileri giriyorsunuz. Tıpkı hassas belgelerin veya müşteri verilerinin chatbotlara girilmesi gibi, hassas şirket verilerinin de bilgi istemine dahil edilmesi, yetkisiz erişime veya gizli bilgilerin sızmasına yol açabilecek yaygın ancak potansiyel olarak zarar verici bir uygulamadır.'' dedi.
SANAYİ HABER AJANSI
EKONOMİ GÜNDEMİ