DUVAR – Yeditepe Üniversitesi Hukuk Fakültesi Öğretim Üyesi Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılıktaki rolünü değerlendirerek, Türkiye’de ve dünyada bu konuda alınan tedbirleri değerlendirdi.
Yapay zeka algoritmalarının cinsiyet, yaş, köken gibi kişisel özelliklere göre ayrımcılık yapabildiğini belirten Prof. “Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabildiğini anlamak büyük önem taşıyor.”
“YAPAY ZEKA İKİ FARKLI ŞEKİLDE AYRIMCILIK OLABİLİR”
Algoritmaların hukuk bilgisi ve toplumsal görgü kurallarından yoksun olması nedeniyle ayrımcılık ihtimalinin bulunduğunu vurgulayan Tınç, sözlerini şöyle sürdürdü:
“Bir yazılım tam olarak hukuki mantığı benimsemiş olsa bile ayrımcılık suçlamasıyla mahkemeye taşınacak uyuşmazlıkların yaşanması kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar toplumun ve hukukun gelişimini durduramaz.”
prof. Dr. Tınç, bu durumda yapay zekaya dayalı ayrımcılığın ortaya çıkaracağı yeni ve kritik soruların cevabını her şeyden önce avukatların vermesi gerektiğinin altını çizdi. prof. Dr. Tınç şunları söyledi: “Yapay zeka iki farklı şekilde ayrımcılık yapabiliyor. Aritmetik ayrımcılık aynı durumdaki insanlara farklı davranılmasını içerir. Örneğin aynı işte aynı performansa sahip iki kişi farklı ücret alıyor. Geometrik ayrımcılık, farklı durumlardaki insanlara aynı şekilde davranılmasını içerir. “Örneğin bir sınavda engelli bir kişiye diğerleriyle aynı süre veriliyor” dedi.
“BUNLARIN MEVZUATIMIZDA DÜZENLENMESİ GEREKİR”
“Algoritmalar insanlar gibi ahlak sahibi olamaz” diyen Tınç, şöyle devam etti: “Kendilerine dayatılan ahlaki kuralların dışına çıkamazlar, bu kuralları kendi başlarına geliştiremezler. Bu nedenle yapay zekanın dış insan müdahalesine, incelemesine ve güncellenmesine açık olması gerekir. Müdahale edemediğimiz, inceleyemediğimiz ve sadece kendini geliştiren bir yapay zeka, gelecekte istenmeyen sonuçlar doğurabilir. Bir süre sonra ilerlemek yerine geri çekilmemize neden olabilir ya da ahlak ve vicdan anlayışımızın gerisinde kalabilir. Dolayısıyla Avrupa ve Japonya’da olduğu gibi yapay zekadan kaynaklanabilecek hata ve suçlara ilişkin mevzuatımıza yeni kurallar getirilmesi gerekecek.”
AI’nın tüzel kişilik olmaması, sorumluluğunun belirlenmesini zorlaştırmaktadır. prof. Dr. Tınç, yapay zekayı geliştiren ve kullanan şirket ve kişilerin, bu teknolojinin vereceği zarardan sorumlu tutulabileceğini vurguladı. Ayrıca yapay zekanın ayrımcılık yapmasını önlemek için şu önlemlerin alınabileceğini söyledi:
“Algoritmik Önlemler: Algoritmaları Düzenli Olarak Denetlemek ve Önyargıları Ortadan Kaldırmak. Yazılım sistemleştirme eğilimlerine karşı güncellemeler ve düzeltici formüller talep edin.
“Kurumsal önlemler: Yapay zeka kullanan kurumların düzenli aralıklarla denetlenmesi.
“İnsani önlemler: Yapay zeka sistemlerinin insan kontrolü altında tutulması. Örneğin, bir Yapay Zeka Şikayet Birimi veya bir “Yapay Zeka Mahkemesi” oluşturabilirsiniz.
Tınç, halihazırda siber suçlarla ilgilenen özel yetkili kurumlarımızın bulunduğunu hatırlatarak, yapay zeka mağdurlarının da destek alabileceği yargı kurumlarının kurulabileceğini söyledi.
prof. Dr. Mehmet Rıfat Tınç, şu değerlendirmeleri dile getirdi: “Yapay zekanın sunduğu fırsatların yanı sıra ayrımcılık gibi ciddi riskleri de bünyesinde barındırıyor. Bu riski en aza indirmek için yasal, teknik ve sosyal önlemlerin alınması gerekmektedir. “Yapay zekanın geliştirilip insanlığın hizmetinde etik ve eşitlikçi bir şekilde kullanılması büyük önem taşıyor.”
(DEMİRÖREN BASIN AJANSI)