KOMİSYON KONUŞMASI

SEVİLAY ÇELENK (Diyarbakır) - Teşekkürler Sayın Başkan.

Sizlere de çok teşekkürler.

Dün de TÜBİTAK'ın bir sunumu vardı, oradaydık, epeyce tamamlayıcı oldu. Tabii, benim açımdan sizin kurumunuzun farklı boyutu sivil alanda olması; şirket değil dernek faaliyeti, dernekleşme etrafında götürmesi bu çalışmaları. Bence eğer yapay zekâyla ilişkili bu kaygılar uygun yasal zeminlerde çözülecekse, sözleşmeler etrafında çözülecekse sivil alanın güçlenmesi çok önemli. Şimdi, bizler, benim görebildiğim kadarıyla en az 3-4 arkadaşımız uluslararası parlamentolarda da varız; işte, NATO Parlamenterler Asamblesi, Avrupa Konseyi Parlamenterler Meclisi. Oraların da çok ciddi gündemi bu yapay zekâ meselesi. Ben NATO PA'da asıl, Avrupa Konseyinde yedek üyeyim, her ikisine katılma imkânım oldu ve bu tartışmalarda ilgimi çeken şey şu... Şimdi, tabii ki NATO PA bir güvenlik teşkilatı olarak bunu daha çok yapay zekâ ve askerî kapasiteyi güçlendirme çerçevesinde ele alıyor. Buna karşıtlıklarımız falan bir yana olgusal bir durum olarak bakarsak, bu kapasiteyi artırma meselesini -oralarda da bize sizin gibi brifingler verenleri hatırlarsak- daha çok özel şirketler yapıyor yani askerî kapasitede de yapay zekâda da küresel ölçekte aslında şirketler çok belirleyici ve bu şirketlerin demokratik yurttaşlıkla çok ilgili olacağına dair bir güvenimiz de maalesef yok. Öyle oluyor ki bu çerçeveden dışarıya gidip baktığınızda "Bugün Orta Doğu'da devam eden savaşları devletler mi, şirketler mi yürütüyor?" diye sorular da sormak gerekiyor. Yapay zekâ da bütün bu kaygılara eklenmiş durumda.

Bu hafta Avrupa Konseyi Parlamenter Meclisinin Kış Oturumu vardı, geçtiğimiz hafta cuma günü sona erdi. Orada mesela bu konu iki türlü önümüze geldi: Bir karar tasarısı geldi, oyladık, bu karar tasarısı daha çok sosyal medyayla ilişkiliydi -ama bunu da o çerçevede düşünebiliriz- sosyal medya platformlarının, arama motorlarının -işte Google gibi, Yandex gibi, Yahoo gibi- oluşturdukları "filter bubble"lar vesaire, bütün bu algoritimalara dikkat çekerek yol açtığı ideolojik izolasyondan söz ediliyordu; bir. İkincisi, ifade özgürlüğüne ve demokratikleşmeye getirebileceği engellerden söz edilerek buna karşı Konsey üyesi ülkeleri bir tür çalışmaya davet ediyordu, hassasiyete davet ediyordu. Bir de -şu anda hangi üye ülke temsilcisi tarafından açılmıştı hatırlamıyorum ama- önüme gelen yeni imzaya açılmış bir karar taslağı vardı; onda da tam tersi, bu sefer, devletlerin fazlasıyla bu alanı ifade özgürlüğü gibi kaygılarla sınırlandırdığı, özellikle ekonomik alana düzenlemelerle müthiş bir kısıtlama getirdikleri ve AI teknolojilerinin kapasitesinden yararlanmayı da neredeyse imkânsızlaştıran durumların oluştuğunu söylüyorlardı. Şimdi, bunun karşısında hakikaten bu kaygılar önemli. Yapay zekâ teknolojileri de çok önemli, ben zaten bu meselelere karşı olmanın anlamsız olduğunu da düşünüyorum çünkü maruz kalıyoruz, küreselleşme gibi, internet gibi her biri aynı tartışmalarla girdi hayatlarımıza, şimdi yapay zekâ da böyle giriyor. Maruz kaldığımız bir şeyin olumlu-olumsuz taraflarını değerlendiririz ve kendimizi koruyucu çerçeveleri bulmaya çalışırız, hukuki çerçeveleri vesaire.

Siz sivil alanda da böyle bir kapasite görüyor musunuz Türkiye'de yani bugünkü ortamda nasıl yapacağız, yapay zekâyı nasıl demokratik yurttaşlığın yanında konumlayabileceğiz?

Teşekkür ederim.

CUMHURBAŞKANLIĞI DİJİTAL DÖNÜŞÜM OFİSİ ULUSLARARASI İLİŞKİLER DAİRESİ BAŞKANI ŞEYMA ÖZCAN - Sayın Milletvekilim, sorunuz için çok teşekkürler.

Şimdi, bu soru aslında çok geniş bir soru yani sosyal medya ortamında biz bunu sağlayabilecek miyiz? Her şeyden önce, uluslararası ilişkiler ve diplomasi bağlamında yapay zekâ bölümünün ilk slaydında bir kısım var, dezenformasyon ve demokratik süreçlere müdahale... Demokratik süreçler içerisinde ifade özgürlüğü ve bahsettiğiniz çeşitli kısıtlamalar da yer alıyor aslında, sadece seçim gelmesin aklınıza. Bu kapsamda, özellikle sahte haber ve propaganda... Yapay zekâ özelinde konuşacak olursak çünkü "filter bubble" çok farklı bir konu yani o algoritmalara dayalı olarak, ilgili sosyal medya platformunun kullandığı algoritmalara bağlı olarak bir kişinin sürekli olarak aynı haberlere, aynı "tweet"lere, aynı Instagram çevresine maruz kalması algoritmik bir şey. Ha, bu da yapay zekâyla yürütülebilir ama sonuç olarak bizim burada yapay zekâ konusunda gördüğümüz en büyük risklerden en önemlisi sahte haber, propaganda ve "deepfake" teknolojileri. Şimdi, bu anlamda, yapay zekâyla üretilen içeriklerin tespiti ve etiketlenebilmesi çok önemli fakat şu anda hâlâ yapay zekâ içerikleri sürekli olarak "authenticity" algoritması değiştirildiği için bir tespit yazılımı ortaya çıksa bile o yazılım yeni bir "authenticity" algoritma üretildiği anda boşa çıkıyor yani aslında birbiriyle yarışan iki tane sistem var burada. Mesela, Avrupa Birliği ve NATO sürekli olarak yapay zekâ destekli dezenformasyon tespit sistemleri üzerinde çalışıyor, şu an hâlâ geliştiriyorlar; bunu henüz yürürlüğe sokabilmiş hâlde değil Avrupa Birliği ve NATO. Türkiye'de de çalışılıyor bu tür konular ama burada en önemlisi sisteme içerik düştüğü anda asıl sosyal medya platformunun kendisinin -bu Twitter olabilir, Instagram olabilir, Facebook olabilir- ilgili platformun kendisinin bunun tespitini yapması gerekiyor yani uluslararası bir örgütün değil de ilgili platform tarafından o içeriğin yapay zekâyla üretilip üretilmediğinin tespitinin yapılabilmesi gerekiyor ve açıkçası çok büyük sosyal medya şirketlerinin... Mesela, Meta'nın şu anda çok ciddi donanım altyapısı var, yazılım altyapısı var ve bunu yapabilecek güçte ama bunu yapmayı da istemesi gerekiyor açıkçası; OECD'de çalışılan konulardan biri de bu. Dezenformasyon kapsamında bu yalancı içeriklerin tespitiyle ilgili olarak bir sosyal medya platform skorlaması da ortaya çıkardılar, sosyal medya platformlarının hangisi... Mesela "'Terrorist' 'violent exstremist', içerik dâhil olmak üzere yapay zekâ içeriğini etiketliyor mu; yapay zekâyla ilgili karşı tarafa, kullanan kişiye bilgi veriyor mu?" gibi bu tür şeyler veriyor.

Bir de askerî sistemlerden söz ettiniz. Askerî sistemler de otonom sistemler ve savunma amaçlı sistemler de esasen ilk slaytta vardı, bununla ilgili olarak çok kısa bir bilgi vermek istiyorum. NATO'da İnovasyon, Hibrit ve Siber Bölümü (IHC Division) içerisinde NATO Veri ve Yapay Zekâ Gözden Geçirme Kurulu kuruldu. Ne zaman? 7 Ekim 2022 tarihinde. Neyi amaçlıyor? Kısa ismi "DARB", "DARB" diyeceğim bu kurul için. NATO yapay zekâ stratejisi ve veri kullanımı çerçevesinde savunma amaçlı yapay zekâ uygulamalarının ve veri kullanımının sorumlu kullanım prensipleri doğrultusunda hayata geçirilmesini hedefliyor.

Sorumlu kullanım prensipleri nedir? Şimdi, bakın, burada da farklılaşıyor, uluslararası örgütten örgüte bile farklılaşabiliyor bu ilkeler ve prensipler. Örneğin, biz burada şeffaflığı görmeyiz. 6 tane ilke belirlemiş durumda. Mesela, OECD yapay zekâ ilkelerinde 10 kadar ilke var çünkü daha sivil bir fora ama burası askerî bir fora olduğu için 6 tane ilkesi var. Bunlar neler? Hukuka uygunluk, sorumluluk, hesap verebilirlik, açıklanabilirlik, izlenebilirlik, yönetilebilirlik, güvenilirlik, yanlılık azaltma. Burada şeffaflık yok, tabii ki olmaz çünkü burası askerî uygulamalar ama burada 2 tane alt çalışma grubu kurdular. Bu arada, bu bilgileri nereden biliyorum? Ben "odak noktası" sıfatıyla şu an temsil yürütüyorum NATO'da, "DARB" içerisinde. 2 tane alt çalışma grubu var; bir tanesi standartlar, değerlendirmeler ve araç kitleri; diğeri bilgi paylaşımı alt grubu. Bu bilgi paylaşımı alt grubu çok fazla bir şey yapmıyor, daha çok üretken yapay zekânın fırsatları ve riskleri üzerinde beyaz bültenler çalışıyor yani daha böyle bilgi amaçlı, teorik içerikte fakat standartlar, değerlendirmeler ve araç kitleri ne yaptı? Sorumlu yapay zekâ değerlendirmesi ve araç kiti ortaya çıkardı, çalıştı. Daha sonra, bu sorumlu yapay zekâ ilkelerine dayalı "Ben bir sertifikasyon standardı ortaya koyacak olursam..." Sorumlu yapay zekâ sertifikasyon standardı çok ciddi bir iş, bir standart çalışması yani savunma amaçlı sistemlerde NATO teşkilatının kullanacağı silahlar, yapay zekâ destekli her türlü şey için bir sertifikasyon standardı çalışması demek bu. Bunun için 12 temel gereksinim belirledi fakat maalesef bu yapay zekâ sertifikasyon standardı çalışması çok "ambitious" başladı yani çok iddialı başladı; "İki yıl içerisinde biz bunu çalışacağız, bitireceğiz." dediler ama tabii ki olmadı çünkü -dediğim gibi- bu ilkeler yani bahsettiğim 6 tane sorumlu kullanım prensipleri -principles of responsible use- çok soyut ilkeler ama askeriye asla soyut ilkelerle çalışmaz, askerlerin çok net kuralları olması gerekiyor bir sertifikasyon standardı olabilmesi için. Şöyle düşünün: 6 milisaniyede bir ateş eden yapay zekâ destekli bir silah var. Bu silahın gözetimini nasıl yapacağız, insan gözetimi nasıl sağlanacak? Çünkü mesela Başkanımızın yaptığı sunumda dedik ki mutlaka insan kontrolünde, "supervision"ında, denetiminde ilerlemesi lazım. Peki, bunun denetimini nasıl yapacağız? Asıl soru bu. O yüzden, bu sertifikasyon standardı çalışmaları şu an ilerliyor ama biraz daha ağır ilerliyor.