Komisyon Adı | : | (10/235, 837, 1601, 1602, 1800, 1801) Esas Numaralı Meclis Araştırması Komisyonu |
Konu | : | Profesör Doktor Şeref Sağıroğlu'nun, sağlıkta üretken yapay zekâ, Türk Beyin Projesi, sahadaki çalışmalar, dünyadaki durum, Türkiye'nin dünyadaki yeri ve yapay zekâ alanına yönelik önerileri hakkında sunumu |
Dönemi | : | 28 |
Yasama Yılı | : | 3 |
Tarih | : | 25 .02.2025 |
UTKU ÇAKIRÖZER (Eskişehir) - Sayın Başkanım, teşekkür ediyorum.
Ben hem hocama hem daha önce sunum yapanlara teşekkür ediyorum.
Öncelikle, ilk defa söz alıyorum, siz açılış yaptınız. İki hususu idari anlamda bir gündemimize getirmek istiyorum. Birincisi, Mecliste yapacağımız yapay zekâ zirvesi konusunda partilerden talebinizi yazılı olarak bildireceksiniz değil mi?
BAŞKAN FATİH DÖNMEZ - Meclis Başkanlığı...
UTKU ÇAKIRÖZER (Eskişehir) - Meclis Başkanlığı bildirecek. Yani sözlü ifade ettiniz ama o gidecek.
İkincisi de, aslında ben daha önce dile getirmiştim ama belki gözden kaçmış olabilir. Hangi hafta hangi konuyu işleyeceğimizin takvimini bize gönderirseniz... Mesela, bu hafta sağlıksa, biz onu birkaç hafta önce bilirsek belki bizim de hem hazırlık yapmamız hem de önerilerde bulunmamız mümkün olabilir. Yani gelecek hafta hangi konu mesela? Son gün, bir gün kala öğreniyoruz, sağlık, burada dinliyoruz. Tartışmanın niteliğine ve hani belki de şeylere hazırlık yapabilmemiz açısından daha fayda sağlar diye düşünüyorum. Yani önümüzdeki sekiz on haftanın taslak takvimini bizimle paylaşırsanız sevinirim. Eğitim, yargı, işte, ticaret ne zaman gelecek; biz de ona göre... Eminim, diğer üyelerin de kafasında böyle bir şey olabilir.
Şimdi, ben öncelikle, tabii, hocamın sunumundan, Sağlık Bakanlığının sunumundan çok etkilendim. Birkaç hususu... Özellikle, bir konu, etik mesele sağlık... Yani bizim konuşurken burada olsun, diğer aldığımız sunumlarda olsun, deniyor ki: "Sağlık, yapay zekâ etiği açısından en riskli alan."
PROF. DR. ŞEREF SAĞIROĞLU - Kesinlikle.
UTKU ÇAKIRÖZER (Eskişehir) - Çünkü etik risklerinin sonuçları canla alakalı, sağlıkla alakalı yani diğer alanlarda başka ama burada... Bu konuda ne yapıyorsunuz? Bir etik kurulunuz var mı, kuruldu mu? Çünkü etik kurullar meselesi, ciddiye alınması gereken bir konu. Mesela, konuştuğumuz, verilerin paylaşımı vesaire, bunların her birinin aslında hem etik hem hukuki sonuçları da var. Buna ne kadar hazırlık yapabildiniz? Yani, tabii, Türkiye'de yeni tartışılıyor ama siz artık buna... Hani hepimizi böyle, hem umutlandıran hem sevindiren projeler de yürüyor bir taraftan ama her birinin, işte, bahsedilen, benim de az bildiğim ama burada öğrendiğim "yanlış negatif" meselesi.
PROF. DR. ŞEREF SAĞIROĞLU - Yalancı negatif...
UTKU ÇAKIRÖZER (Eskişehir) - Yalancı negatif, yalancı pozitif; biri pozitif, pozitifi de var o işin.
BAŞKAN FATİH DÖNMEZ - Daha ağır bir ifade.
UTKU ÇAKIRÖZER (Eskişehir) - Çok ağır ama bireylerin, hepimizin, her birimizin hayatı anlamında her gün karşılaşabileceği meseleler ve burada eğer etik sınırlamalar, kurallar konulmazsa gerçekten ciddi sonuçları olur; birincisi. İkincisi de mesela, sizin için soruyorum yani Genel Müdürlüğünüz ve çalışanlarınız açısından: Olası bir olumsuz sonucun sorumlusu kim; siz misiniz? Hani yapay zekâyı koydunuz, yazılımcı mı, datayı veren mi, siz misiniz, Bakan mı? Anlatabiliyor muyum? Bu sorumluluk meselesi çok önemli, bunların belirlenmesi lazım yani etik sorumlunun, yapay zekânın sağlıkta kullanımı anlamında. Bu noktalarda önlemler aldınız mı? Benim cahilliğime verin ama bildiğine güvendiğim birkaç insana sorduğumda... Ki eminim hocam şimdi bahsedeceğim şeyleri de çok iyi biliyor. İşte, IBM'in "Watson for Oncology" sistemi, bir hayal kırıklığı ve hani büyük sıkıntı.
PROF. DR. ŞEREF SAĞIROĞLU - Evet, doğru.
UTKU ÇAKIRÖZER (Eskişehir) - Amerika'daki UnitedHealth tartışması, detaylarını sizler bildiğiniz için söylüyorum ya da Google'ın mesela, çok konuşuyoruz ama DeepMind'ın diyabet hastalarında retina teşhis edebilen modeli vesaire buna ilişkin, hastaların verilerinin kullanımına ilişkin çok tartışmalar var. Benzer şekilde, Amazon'un Berkshire Hathaway, JPMorgan Chase ile Haven adlı sağlık sigortası girişiminin başarısızlığı... Radyoloji alanını çok konuşuyoruz ya, "Radyoloji alanındaki yapay zekâ destekli sistemler, belki de tıbbi teşhislerde kullanımına dair en önemli sıkıntılı alan bu alan." deniyor mesela. "Kanser teşhisinde yapay zekânın başarılı sonuçlar verdiği düşünülse de bazı sistemlerin yüksek oranda yanlış pozitif ve yanlış negatif sonuçlar ürettiği tespit edilmiştir." deniyor. Ben bu tartışmaları sizinle paylaşıyorum. "Yanlış pozitif sonuçlar, hastaların gereksiz biyopsilere yönlendirilmesine neden olurken yanlış negatifler, kanserli dokuların teşhis edilememesi gibi ciddi sonuçlar doğurmuştur. En büyük etik sorun bu sistemlerin hata oranlarının tam olarak doktorlara açıklanmaması ve hastalar üzerinde yaratabileceği psikoloji ve fiziksel etkilerin göz ardı edilmesidir." vesaire vesaire. Çok söyleyebilirim ama bir örnek de Çin'de yaşanmış. "Çin'de bazı hastaneler, hastaların yüz tanıma teknolojisiyle takip edilmesine başlamış ve bu sistemlerin hastaların hastaneye giriş çıkışlarını hızlandırmak ve sigorta dolandırıcılığını önlemek için kullanıldığı açıklanmış ancak hastalar bu sistemlere katılım konusunda zorlanmış." vesaire. "Biyometrik verilerinin nasıl saklandığı konusunda bilgi alamamış, gizlilik ihlalleri ortaya çıkmıştır." Yani sağlık alanında bu mesele sıkıntılı. Biz ne yapıyoruz, ne yapmalıyız? "Ne yapıyoruz?"u bu tarafa, "Ne yapmalıyız?"ı size ya da diğerlerine soruyorum. Genel anlamda belki tartışmaya katkısı olur.
Çok teşekkür ederim.
PROF. DR. ŞEREF SAĞIROĞLU - Evet, teşekkür ederiz.
Sayın Genel Müdürüm, siz mi önce cevap verirsiniz, ben mi vereyim?
SAĞLIK BAKANLIĞI SAĞLIK BİLGİ SİSTEMLERİ GENEL MÜDÜRÜ ÖZGÜR SEZER - Fark etmez.
PROF. DR. ŞEREF SAĞIROĞLU - Buyurun siz.
SAĞLIK BAKANLIĞI SAĞLIK BİLGİ SİSTEMLERİ GENEL MÜDÜRÜ ÖZGÜR SEZER - Sistemlerimizde hekimlere yönelik tavsiye kararı gibi gösterdiğimiz yapılarda -teleradyolojide, mamografide, BT Toraksta, beyin BT'sinde- orada en başta hekimlere bir bilgilendirme ve bir onam onaylatıyoruz. Onaylattığımız onamda bunun bir klinik karar destek sistemi olduğunu, son kararı hekimin vereceğini gösteriyoruz ve sistem gerçek görüntüyü de gösteriyor, bizim işaretlediğimiz görüntüyü de gösteriyor ve hekim, kararı veriyor. Bu KETEM'lerden gelen mamografi sonuçlarında bizim BI-RADS skoru 4-5 olarak gördüğümüz daha riskli hasta gruplarını tek hekime göndermiyoruz, aynı anda 2 hekime gönderiyoruz, 2 hekimin de raporlamasını istiyoruz ve aynı kararı vermedilerse, farklı karar verdilerse o vakaları 3'üncü hekime gönderiyoruz raporlama için. Raporlama aşamasında da bu bizim ulusal mamografi sistemimizde hekimler sistemini açtıkları zaman sırayla vakaları görürler; en eski vaka aslında en önde gelen vakadır. Ama biz o sistemde tarih veya kişi bilgisi gibi bilgiler bulundurmuyoruz, sadece o çekimin bir PACS numarası, bir referans ID'sini gösteriyoruz. Orada bu riskli hastaları, BI-RADS skoru 4-5 olanları otomatikman listenin en tepesine getiriyoruz ve dolayısıyla aslında burada etik anlamında sıkıntı yaşamıyoruz ama tabii, dediğiniz konuda bizim Standart ve Akreditasyon Daire Başkanlığımızın içinde mevzuat birimimiz var. Oradaki avukat arkadaşlarımız sağlık hukuku alanında bu ön bilgilendirme formlarını ve Hukuk Hizmetleri Genel Müdürlüğümüzle yeni kanunlar noktasındaki irtibatı sağlıyorlar. Başvurularda biyometrik veri toplamıyoruz yani genel olarak biyometrik veriyi, geçmişte hatırlarsınız, Sosyal Güvenlik Kurumu avuç içi damar izi sistemi olarak toplamıştı, daha sonra iptal olmuştu. Şimdi önümüzdeki dönemlerde de yine toplayacak mı bilmiyorum, toplayabilir. Kanunen SGK'nin böyle bir veriyi alabilme hakkı var mı emin değilim ama bizim başvuruda biyometrik veri toplama hakkımız bulunmuyor; dolayısıyla biz biyometrik veri toplamıyoruz.
PROF. DR. ŞEREF SAĞIROĞLU - Evet, burada çok önemli bir konudan bahsettiniz. Bu tür projelerin önündeki en büyük engel, etik bakış açısı ve tabii ki güvenlik riski. İşte, Avrupa Yapay Zekâ Yasası'na baktığımızda madde 1'de "Kişisel veri çalışamazsın." diyor; madde 1'i kesmiş... 2'ncide "Çalış, üret ama modelini ve verini istiyorum." diyor. Ya, bu hassasiyet gerçekten çok yüksek. Belki biz de Avrupa tarafında olduğumuz için buna dikkat etmemiz gerekiyor fakat bilim bakış açısıyla bunları ele aldığımızda anonimleştirme teknikleri de öyle sıradan teknikler değil artık, bunlar da çok gelişiyor. İşte, biraz önce kesit kesit farklı uygulamalar gösterdim. Yapay zekâ, mesela, beyin MR'ı üretiminde çok başarılı. Şimdi, bizim son yaptığımız çalışmada modelin başarısını minimum yüzde 5 arttırıyor; bu ürettiğimiz yapay veri yani model başarısını arttıran bir hâle dönüşüyor. Dolayısıyla burada bakış açımız tabii ki ciddiyetle ele alınacak bir konu ama bilimsel bakış açılarıyla bunu daha da genişletmemiz gerekiyor; kesip atmak değil. Çünkü mesela, Avrupa bundan çok muzdarip, şu anda önündeki en büyük engelin alınan Yapay Zekâ Yasası olduğunu ifade ediyor; neden? Veriyi artık kontrol altında tutuyor. "Bir ürünü satamayacaksın; getir, bütün detaylarını -nereden eğittin, nereden geliştirdin, kimlerden aldın bu verileri gibi- bilmek istiyorum." diyor. Dolayısıyla, işte, büyük veriye bakış açımızı değiştirmemiz gerekiyor. Daha güvenli, mahremiyete duyarlı, tabii ki kaliteli veriler üretecek yapıları kurmamız gerekiyor. Burada eğer vaktimiz varsa bir hususu açıklayabilir miyim? Bakın, bir uygulamayı dijital ortama taşımak için Turkcell'in avukatlarıyla projeden daha çok uğraştım. Çok haklılardı, her şeyi sordular "Hocam, olmaz, buna müsaade edemeyiz, şu öyle olmaz, bize açıklayın." diyorlar. En ince detayına kadar sizin bir kişisel veriyi operatör üzerinden taşımanızda en zor iş onları ikna etmek. Ya, pek çok bilimsel teknikle göstere göstere göstere günün sonunda uygulamayı hayata geçirdik. Tabii ki anonim taşıyoruz, biraz önce ifade ettiği gibi, her şeyi sunmuyoruz. Dolayısıyla, bilim en büyük destekçi. Yapay zekâ metotları artık ne yapabiliyor? Buradaki örüntü modelinde ne varsa bunu farklı ortama taşıyarak "generate" edebiliyor, ya siz o kişiyi veyahut kişiye erişimi engelliyorsunuz. Bugün, kişisel veri, işte, bir T.C. kimlik oluyor, bir tane özellik ama bir kişiyi bulmak için şu anda literatürde 50 bin farklı özellikle kişiyi yine bulabiliyorsunuz yani "like"larınızın paterninden bile kişiyi tanıyabiliyor. Dolayısıyla, hakikaten hassas bir konu yani bunun özellikle üzerinde durulması gerekiyor ama günün sonunda tabii ki buradaki Komisyonumuz en akılcı kararı verecek ülkemiz için. Çok önemli bir Komisyon bu. Güvenlik bakış açısının günlük bakış açımızdan 1 milyon kat daha önemli olduğunu ifade edeyim. Ben güvenlik bakış açısı olan bir öğretim üyesiyim aynı zamanda. Dolayısıyla, riski diğerlerinden 1 milyon kat daha fazla bir alan burası. Onun için, biz modeller üzerinde farklı çalışmalar da yapmalıyız. Bir modeli geliştirmek yetmiyor, onu açıklanabilir şekilde de geliştirmek gerekiyor ki izah da edin, ikna da edin, aynen bu arkada görünen xAI gibi. Son dönemde yapay zekânın en büyük riski kapalı kutu olmasıydı. Son beş yıldır xAI modeli çok popüler. Biz bunu güvenlikte de uyguluyoruz yani bir IDS veya IPS cihazlarından geçen trafikte eğer anormal bir durum varsa bunu sistem söylüyor, nedenini de söylüyor, biz de anlıyoruz "Bu, şu gerekçeden dolayı..." İkna da oluyoruz yani bu tür teknolojiler de gelişiyor, bilim bunun için var. Şifrelenmiş veri üzerinde analiz bile yapabilecek çözümler var. Dolayısıyla, bilimsel çalışmalara belki bu Komisyonumuz özel önem vererek, bir madde koyarak özellikle yapay zekânın bilimsel olarak gelişmesi konusunu özel gündemde farklı bir şekilde değerlendirecek bir çözüm sunabilir diye düşünüyoruz çünkü yapay zekânın bilimsel modelleri biraz önce açıklamalarımda, üniversitelerde özel gündem maddesi çünkü ülkeyi bilimsel olarak geliştirmemiz de gerekiyor ki diğer konular da gelişsin.