Yapay Zeka ve İletişimde Yeni Dönem: Stratcom Summit’24 Sonuçları
İstanbul'da Cumhurbaşkanlığı İletişim Başkanlığı tarafından 'İletişimde Yapay Zeka: Eğilimler, Tuzaklar ve Dönüşüm' konusuyla bu yıl 4'üncüsü gerçekleştirilen Uluslararası Stratejik İletişim Zirvesi'nde (Stratcom Summit'24) İletişimde 'Yapay Zeka Destekli Siber Güvenlik: Güvenliğin Sağlanması' başlıklı panel düzenlendi. Zirveye Cumhurbaşkanlığı İletişim Başkanı Prof. Dr. Fahrettin Altun'un yanı sıra çok sayıda katılımcı katıldı.
'YAPAY ZEKANIN KONVANSİYONEL SAVAŞLARDAN DAHA DA TEHLİKELİ BİR HAL ALABİLECEĞİNİN ALTINI ÇİZDİK'
Panelin kapanış konuşmasını gerçekleştiren Altun, "Yapay zekanın da şekillendirdiği çevrimiçi dünyanın, sosyal ve ticari yönlerinin yanı sıra önemli bir mücadele rekabet çekişme alanı olduğunu ve hibrit savaşların insanlık için neredeyse konvansiyonel savaşlar kadar hatta ve hatta yeri geldiğinde konvansiyonel savaşlardan daha da tehlikeli bir hal alabileceğinin altını çizdik. Yapay zekanın geleneksel sömürge anlayışının devamlılığı yahut ülke geneline zarar verecek şekilde ve seçili ülkelerin menfaatlerini koruyacak tarzda değil küresel fayda ve tüm insanlığın menfaatine özgürlük, güvenlik dengesini gözetecek şekilde adil bir tarzda kullanılmasının önemine dahil güçlü vurguları bu çatı altında tarihe not düştük" dedi.
İletişimde Yapay Zeka: Eğilimler, Tuzaklar ve Dönüşüm temasıyla düzenlenen zirvede, Uluslararası Stratejik İletişim Formu niyet beyanını paylaşan Altun, "Yapay zekanın ve diğer gelişen teknolojilerin iletişim alanında sunduğu yeni fırsatların, bunların sonucunda oluşan yeni deneyimlerin, iletişim, üretim ve eğilimleri kurmakta olduğu zengin iletişim ekosisteminin farkında olarak; bu ekosistem içinde yer alan yapay zeka tasarımcılarının ve tüketim tüketici gruplarının, temel insani değerler dışına çıktıkları takdirde, menfi değerlerin yalan bilgi ve dezenformasyon çerçevesinde küresel bilgi kurgusuna getirebileceği çeşitli sorunlara ve meydan okumalara dikkati çekmenin zorunluluğunu görerek, bu durumun en acı örneği olarak, son 14 aydır Gazze'de Filistinlilerin yaşadığı zulmün, katliamın, bölgedeki yıkımın uluslararası ortama duyurulması için adil yayın yapmayan haber yapılarının, haber yapmaya çalışan iki yüze yakın gazetecinin ölümüne sessiz kalmalarına, insanlara karşı işlenmiş suçları dahil ederek bu çerçevede gelişmiş iletişim ekosistemine ve yapay zeka kullanımına eşit ve anlamlı bir şekilde katılma kapasiteleri oluşmamış, toplumların veya toplum gruplarının bilgi güvenliği savunmasızlığını kayıt altına alarak, özellikle çocuk ve gençlik bireylerin sosyal medya platformlarında ve özellikle yapay zeka kullanımıyla zenginleştirilmiş içerikler karşısında savunmaz olduklarını kabul ederek, hızla yaşlanan dünya nüfusundaki her yaştan bireyin yapay zeka üzerinden maruz kalabilecekleri yanlış bilgilendirmeler marifetiyle manipüle edilme risklerini görerek, Uluslararası Stratejik İletişim Platformu olarak; kişilerin ve toplumların yaşam boyu adil şeffaf ve doğru bilgilenme hakkının tanımlanmasının ilgili kurul ve kurallarla değerlendirme zeminlerinin oluşturulmasının zorunluluğunu ifade ediyoruz" dedi.
'GEREKİRSE BUNLAR İÇİN YENİ SOSYAL MEDYA'
Altun, "Savunmasız gruplar için şiddet, toplumsal birlikteliğe yönelik yıkıcı değerler ve dezenformasyona karşı temel etik kodlarının inşasının bu sürece hizmet edecek ortak içerik üretilmesinin, gerekirse bunlar için yeni sosyal medya ortamlarının kurulmasının bir mecburiyeti olduğunu vurguluyoruz. Yapay zeka teknolojilerinin kişisel verilerin korunması ve siber güvenlik esaslarına uygun bir şekilde kullanımının tüm devlet ve devlet dış aktörlerin aktörlerce teşvik edilmesi gerektiğini savunuyoruz. Biz yapay zekanın yanlış eksik bilgiyi yaratmak için değil, infodeminin anlaşılıp karşı tedbir alınabilmesi için sektörün insansızlaştırılması yerine, yapay zekanın insanileştirilmesi gerektiğine inanıyoruz. Bu çerçeve ve değerler sistemi bağlamında, küresel hakikat mücadelesinde iletişim ortamlarının zenginleştirilmesi ve tüm paydaşlarımızla ortak çalışmaların artırılmasını önemsiyoruz" dedi.