Yapay zekayı nasıl güvenli ve verimli kullanabiliriz?

Kaspersky anketi, Türkiye'deki katılımcıların yüzde 40'ının yapay zekayı iş yerinde bir ekip üyesi olarak görmeye başladığını ortaya koyuyor.

Kötü niyetli kullanıcıların, bireyleri hedef alan daha ikna edici sosyal mühendislik saldırıları oluşturmak için üretken yapay zeka araçlarını etkili bir şekilde benimsemesi de bu durumu daha karmaşık hale getiriyor. Örneğin kişiselleştirilmiş kimlik avı e-postaları hazırlamak, insanları taklit eden gerçekçi ses, video veya metin içeriği içeren "deepfake"ler oluşturmak, hatta kamuoyunu etkileyebilecek veya gerçeği gizleyebilecek dezenformasyon kampanyaları yaymak gibi.

Kuruluşlar, üretken yapay zekanın kullanımı söz konusu olduğunda merkezi bir yaklaşım benimseyebilirler. Bu tür bir hizmet daha sonra bir bulut sağlayıcısı üzerinden kurumsal bir hesap aracılığıyla sağlanabilir ve gerekli tüm önlemlerin alındığından emin olunabilir. Bunlar, mesajlardaki kişisel olarak betimlenebilecek bilgilerin izlenmesinin yanı sıra gözetimi de içerebilir.

Uzmanlara göre, kuruluşlar çalışanlarını üretken yapay zekanın kabul edilebilir kullanımı ve bunlara erişimin şirket tarafından yönetilen uygun yolları konusunda eğitmeli. Aynı zamanda, kuruluşlar, üretken yapay zeka kullanmanın faydalarını ve risklerini anlayarak ve olası tehlikeleri azaltmak üzere gerekli güvenlik önlemlerinin alınmasını sağlayarak çalışan verimliliğini ve iş memnuniyetini önemli ölçüde artırabilir.

Çalışanlar için genel kurallar, gizli verilerin yapay zeka araçlarına ifşa edilmemesini, herhangi bir kritik kullanım durumu için yapay zekanın tavsiyelerine güvenilmemesini, bilgilerin mutlaka doğrulanmasını, bir sohbet botuna sağlanan herhangi bir verinin dışarıya sızabileceğini hatırlamayı da içermeli.

Ayrıca büyük dil modeli (LLM) tabanlı sistemleri çalıştıran tüm bilgisayarın ve sunucuların güncel güvenlik araçlarıyla korunması gerekir.

"ÜRETKEN YAPAY ZEKANIN TAMAMEN ENGELLEMESİ GEREKMİYOR"

Açıklamada görüşlerine yer verilen Kaspersky Makine Öğrenimi Teknolojisi Grup Müdürü Vladislav Tushkanov, üretken yapay zeka araçlarının teknolojik veri analizi ve rutin görevlerde yardımcı olduğu için çalışanların daha üretken olmasını sağladığını belirterek, ancak birçok kişinin yapay zekayı işverenlerinden gerekli izni almadan kullandığını savundu.

Bu durumun kurum için önemli riskler doğurabileceğini aktaran Tushkanov, "Örneğin veri sızıntısı önemli bir endişe kaynağı haline gelebilir. Ayrıca, çalışanlar 'halüsinasyonlar' sonucunda yanlış bilgiler alabilir ve bunlara göre hareket edebilir. Bu, büyük dil modellerinin yanlış bilgileri kendinden emin bir şekilde sunmasından kaynaklanır. Bu halüsinasyonlar, üretken yapay zeka belirli iş işlevlerinin nasıl yerine getirileceği konusunda tavsiyelerde bulunmak için kullanıldığında özellikle tehlikeli olabilir." ifadelerini kullandı.

Tushkanov, durumun, kuruluşların üretken yapay zekayı tamamen engellemesi gerektiği anlamına gelmediğini vurgulayarak, karar vericilerin günlük iş rutininin hangi bölümlerinin işletmenin karşı karşıya olduğu tehdit düzeyine olumsuz etkide bulunmadan üretken yapay zeka araçlarıyla otomatikleştirilebileceğini anlamak için kapsamlı bir risk değerlendirmesi yapması gerektiğini kaydetti.

ChatGPT ve diğer çözümleri yasaklamanın ideal seçenek olmayabileceğine dikkati çeken Tushkanov, "Üretken yapay zeka, çok fazla ve çok az tedbir arasındaki dengeyi bularak verimli bir şekilde kullanılabilir. Daha geniş anlamda, kamu ve özel sektör arasındaki işbirlikleri, üretken yapay zekanın iş büyümesine yardımcı olmak, inovasyon için daha fazla kaynak ayrılmasını sağlamak ve riski yönetmek için kritik bir yardımcı haline gelmesine katkı sağlayacaktır." açıklamasında bulundu.