ChatGPT gibi sohbet robotları hakkımızda neler biliyor?

Yapay zeka sohbet robotları (Chatbot), teknoloji standartlarına göre nispeten eskidir. Ancak işin içine yapay zekayı tam anlamıyla sokan OpenAI’nin ChatGPT’si, Microsoft’un Bing’i ve Google’ın Bard’ı liderliğindeki en yeni sistemler, her zaman olumlu nedenlerle olmasa da daha önceki örneklere göre çok daha yetenekli olduklarını kanıtlıyor.

Yapay zeka gelişimindeki son atılımlar, şimdiden yanlış bilgilendirme, dezenformasyon, intihal ve makine tarafından üretilen kötü amaçlı yazılımlar hakkında endişeler yarattı. Üretken yapay zekanın ortalama bir internet kullanıcısının mahremiyeti için nasıl sorunlar oluşturabileceği sorusunun cevabı ise uzmanlara göre büyük ölçüde bu robotların nasıl eğitildiği ve onlarla ne kadar etkileşim kurmayı planladığımızla ilgili.

YAPAY ZEKA SOHBET ROBOTLARI VE COMMON CRAWL

Yapay zeka sohbet robotları, insan benzeri etkileşimleri taklit etmek için, önemli bir kısmı Common Crawl gibi depolardan türetilen büyük miktarda veri üzerinde eğitilir.

Chip’in de aktardığı gibi Common Crawl, açık web’i gezerek yıllar boyunca petabaytlarca veri topladı. Stanford’un bilgisayar bilimi bölümünde doktora öğrencisi ve Microsoft Research’te eski yapay zeka asistanı olan Megha Srivastava, “Bu modeller, internetteki halka açık verilerin büyük veri kümeleri üzerinde eğitim veriyor” diyor. Srivastava’nın söylediğine göre ChatGPT ve Bard, Common Crawl’ın verilerinin “filtrelenmiş” bir kısmını kullansalar da, modelin devasa boyutu “birinin verileri tamamen inceleyip sterilize etmesini” imkansız kılıyor.

Ortalama bir kullanıcı için erişimi zor olan ve internetin uzak köşelerinde bulunan dikkatsizce oluşturulmuş veya düşük güvenliğe sahip verilerin bir eğitim setine fark edilmeden yerleştirilmiş olması ve sohbet robotu tarafından gelecekte tekrar edilmesi mümkün.

Bir botun birinin gerçek iletişim bilgilerini vermesi, hiçbir şekilde olmayacak bir şey değil. Bloomberg köşe yazarı Dave Lee, Twitter’da birisi ChatGPT’den şifreli mesajlaşma platformu Signal’de sohbet etmesini istediğinde, gerçek telefon numarasını tam olarak verdiğini bildirdi. Bu tür bir etkileşim muhtemelen uç bir durum olsa da bu öğrenme modellerinin erişebildiği bilgilerin dikkate değer olduğunu vurguluyor.

Ayrıca bu chatbot’lar, sizin onlara sunduğunuz verileri de öğrenme sürecine dahil edebiliyor. Yani siz bir veriyi onunla paylaştığınızda, o bu verileri başka birinin karşısına çıkartabiliyor. Aynı Samsung çalışanlarının başına geldiği gibi…

SANS Enstitüsü güvenlik organizasyonundan David Hoelzer, Engadget’e “OpenAI’nin sağlık verileri gibi belirli bilgileri toplamak ve modellerini eğitmek için bireylere atfetmek istemesi pek olası değil” dedi ve ekledi: “Ama yanlışlıkla orada olabilir mi? Kesinlikle…”

Kısacası yapay zeka sohbet robotları hakkımızdaki açık bilgileri toplayabildiği gibi, onlarla paylaştığımız şeyleri de kendi eğitimleri için kullanabiliyor. Bu da, bu robotları kullanan herhangi birinin, bize ait verilere rastlantı eseri ya da bilinçli olarak ulaşma ihtimali olduğunu gösteriyor.

Open AI, ChatGPT tarafı için veri gizliliğini korumak amacıyla hangi önlemleri aldığını veya eğitim setlerine yerleşmiş olabilecek kişisel olarak tanımlanabilir bilgileri nasıl ele aldığını açıklamamış olsa da, ChatGPT’nin kendisi “kullanıcıların gizliliğini ve kişisel bilgilerini koruyan etik ve yasal standartları takip edecek şekilde programlandığını” ve “(kendisine) sağlanmadığı sürece kişisel bilgilere erişimi olmadığını” söylüyor.

Google, kişisel olarak tanımlanabilir bilgilerin sohbetler sırasında paylaşılmasını önlemek için Bard’da benzer “korkuluklar” bulunduğunu söylüyor. Bard’ın özel bir gizlilik politikası bulunmuyor ve bunun yerine diğer Google ürünleri tarafından paylaşılan kapsamlı gizlilik belgesini kullanıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir