KOMİSYON KONUŞMASI

SEVİLAY ÇELENK (Diyarbakır) - Teşekkürler Sayın Bakan.

Değerli katılımcılar, böyle son on günde çok fazla yolculuk yaptım; dünyanın öbür ucuna gittim, bir de Türkiye'de de 5 şehir gezdim; bir ses kısıklığım var, umarım kısılmadan tamamların.

G20'den aslında kısaca söz etmek isterim tabii. G20 ülkeleri bu sene Güney Afrika'da toplantılarını yapıyor biliyorsunuz, benim katıldığım da Avrupa Parlamenter Forumu'nun daveti üzerine katıldığım bir toplantıydı. 40 parlamenter vardı tüm dünyadan, Türkiye'den de ben de G20 ülkeleri adına davetli katılımcıydım, davetli parlamenter katılımcıydım. Aslında orada da iki yoğun gün süren bir toplantı ve bir sonuç deklarasyonu hazırladık. Sonuç deklarasyonunda da çekirdek çalışma grubunda olduğum için bayağı yoğun biçimde her yerden gelen verileri görme imkânım da oldu. Yapay zekânın nasıl her alanda... Oradaki, kadın sağlığı ve güvenliğini güçlendirmeye dönük bir toplantı ve bunun ulusal ekonomiler bakımından kazanımları; genel çerçevesi buydu bu sefer bizim katıldığımız Avrupa Parlamenter Forumu'nun bir tür şeyi diyelim, yan etkinlikler oluyor; bu, asli oturumlardan biriydi. Orada da görüyorsunuz büyük verileri işleme adına yapay zekânın nasıl gerçekten büyük kazanımları olduğunu ve en başından zaten desteklenmesi gereken bir teknoloji olduğunu. O toplantı nedeniyle buraya gelemedim. Gelseydim burada daha çok böyle partimizin yapay zekâ perspektifine dair bir katkı sunmayı düşünmüştüm.

Sayın Bakana gerçekten bu toplantıyı böyle bir nezaket çerçevesinde her hafta ve yoğun bir çalışmayla sürdürdüğü için teşekkür etmek isterim. Bizler açısından, belki bunda kendimize de bir eleştiri getirebiliriz ama hep başka başka komisyonlarda karşılaştığımız bir şey, önerdiğimiz isimler genellikle kabul görmediği için önermemeye başlıyoruz. Mesela -burada çok değerli katılımcıları dinledik ama- Türkiye'de bu alanda çok önemli isimlerden biri de Füsun Sarp Nebil'dir, sanırım onu davet edemedik ya da benim katılamadığım toplantılardan birinde geldi mi acaba dedim. İstanbul Teknik Üniversitesinden nükleer mühendislik alanındadır ve yapay zekâ konusunda çok değerli çalışmaları vardır, bilgi olsun diye söylemek isterim ya da işte, düşünce özgürlüğü, ifade özgürlüğü-yapay zekâ ilişkisi çok mühim bir konu. Bu konuda da İfade Özgürlüğü Derneğinden Yaman Akdeniz dinlenebilirdi fakat üniversitelerden, kurumlardan çok değerli katılımcıları dinledik.

Bu başlıklar elbette çoğaltılabilir ama esas olarak geniş kapsamlı bir değerlendirme imkânı veriyor. Bununla ilgili önerim de şu olabilirdi: Biz bu taslak ortaya çıktığında bu Komisyonunun emek veren üyeleri olarak bu taslağı görüp belki onun üzerinden de kısaca birkaç gün içinde görüşlerimizi iletebiliriz. Mesela, Güney Afrika'daki toplantıda günler önceden taslak herkese gelmişti. Biz son şeyi onun üzerinde çalışmıştık. Bu, çok kıymetli olurdu.

Bizim açımızdan yapay zekâ bugün artık toplum hayatından siyasete, bilimden tıbba, havacılıktan akla gelebilecek her alanı çok etkileyen bir teknoloji ama bunun ötesinde bir dönüştürücü kapasite yani basitçe bir teknolojiden ibaret değil, dönüştürücü bir kapasite. Dönüşüm de her zaman kamu yararına işleyemeyebiliyor çünkü dünya ölçeğinde bu teknolojiler genellikle büyük şirketlerin elinde ve bu şirketler tarafından kendi çıkarları doğrultusunda manipüle edilebiliyor. Ayrıca, bir tarafta da otoriterleşen devlet yönelimleri de dijital ortamın demokratikleşmesine imkân tanımıyor. Onun için de bu hazırlanan raporumuzda belki "genel görünüm" altında bir niyet olarak bu vurguların çok önemli olduğunu düşünüyorum. Bu dönüştürücü kapasitenin, kamu yararına ve demokratik dijital toplum yararına bir vurgu içermesi gerekiyor ve burada demokratik değerler, etik değerler çok önemli. Burada da UNESCO'nun -2021'di sanırım- Yapay Zekâ Etiğine İlişkin Tavsiyesi var; o da çok yol gösterici, belki ona atıf yapılmasında yarar olabilir.

Hukuki çerçeve ve mevzuat konuları çok önemli ama bizim bu alanda değerlendirebileceğimiz yakın tarihli mevzuat değişiklikleri hep tedirginlik verici oldu. İşte, 2020 sosyal medya yasası, dezenformasyon yasası, gündeme gelip gelip çekilir gibi olan etki ajanı yasası; bütün bunlar da yapay zekâyla ilişkili ve parti olarak bizim buradaki vurgumuz, sosyal medyanın, dijital dünyanın ve yapay zekânın özgürlükleri kısıtlamaksızın güvenli çevrim içi ortam sunmaya odaklı olması yani temel ifade özgürlüğünü, medya özgürlüğünü, sosyal medya özgürlükleri alanını bir yandan koruyup bir yandan etik değerleri oturtmak, bir yandan da bu alanı daraltmamayı öncelemek gibi bir vurgusu olmalı diye düşünüyorum.

Bunları aslında yazılı olarak da sunacağım ama aklımıza gelen bu alandaki iki büyük uluslararası skandal, belki, işte vurgulanması gereken birkaç konuyu da çok dikkate almayı getiriyor. Bir, Cambridge Analytica'nın Facebook'la anlaşarak yaklaşık 50 milyon kişinin verisini alması ve bu verileri siyasetçilere satmasıyla ilgili bir skandal yaşanmıştı, 2014 diye hatırlıyorum bunu, Kişisel verilerin korunması konusundaki ulusal politikanın da bu raporda vurgulanmasının çok önemli bir yeri var. Bir diğeri de yapay zekânın da toplumdaki işte nefret söylemini, ırkçı yönelimleri; bütün bunları sürdürme kapasitesi var yani yapay zekâ bir yandan çok mühim, burada bütün dinlediğimiz sunuşlarda biz bu kapasiteyi gördük ve aslında Türkiye'nin bu kapasitede de önemli bir iddiasının olduğunu gördük. Bu gurur verici bir şey ama bir yandan da her ülkede, her toplumda kendi karakterine uygun zaafları da üretiyor.

Son şey olarak bu Compass skandalını söylemek isterim. Skandal demeyebiliriz belki, Amerika Birleşik Devletleri'nde yargıda kullanılmasıyla ilişkili; kişilerin 2'nci kez suç işlemeye yatkınlığı meselesi yapay zekâ çerçevesinde değerlendirildiğinde alınan sonuçtan anlaşıldı ki bu konudaki bütün zaafları aslında hakikate uygun olmayan biçimde yeniden üretiyor. Mesela, o incelenen dönemde siyahlar daha az şiddete başvurduğu hâlde, 2'nci kez suç işlemeye yatkınlıkta siyahlar öne çıkarılıyor, işte, beyazlar daha düşük çıkıyor. Çünkü yapay zekâ aynı zamanda zaten mevcut verileri toplayarak işliyor ve o büyük veri bütün ön yargıları da içeriyor. Dolayısıyla buradaki insani denetim konusuna vurgumuz önemli.

5 kısa maddeyle özetleyeyim, sizlere de naçizane bir rapor şeklinde ulaştıracağım: Algoritmik şeffaflık çok önemli, bu yasal zorunluluk hâline gelmeli. Yapay zekâya dayalı karar alma süreçlerinde insani denetimi muhakkak öncelikli olarak bir yerde pozisyonlandırmak gerekiyor. Tüm yurttaşların kişisel veri hakkını anayasal güvence altına almak gerekiyor. Etik denetim kurullarını oluşturmak çok önemli ve de tabii ki sık sık medya okuryazarlığı diyoruz ama bir de yapay zekâ okuryazarlığı eğitimi var; bunun da ortaöğretimden, işte, belki de daha okul eğitiminin ilk yıllarından itibaren eğitime dâhil edilmesi gerekiyor. Yapay zekâ okuryazarlığı hem gençlerin, çocukların güvenliği açısından hem de genel olarak toplumun sağlıklı bir yapay zekâ kullanma becerisine sahip olması açısından önemli.

Teşekkürler verdiğiniz söz hakkı için.