Haberler & Bilgiler
Yapay Zekâ Sistemlerinin Kullanımında Etik İlkeler
  1. Giriş

Yapay zekâ teknolojileri, güncel devinimlerle birlikte gündelik hayatımızda sıkça kullandığımız teknolojiler halini almıştır. Olumlu ve olumsuz etkileri de olan yapay zekâ teknolojisinin sağladığı kolaylıklardan yararlanırken, neden olabileceği olumsuz sonuçları da unutmamak gerekir. Bu bağlamda, dünyada belirli topluluklar tarafından yayınlanan yapay zekâ sistemlerinin kullanımında dikkat edilmesi gereken etik ilkelerin incelenmesinde fayda olacaktır. 

  1. Yapay Zekâ Sistemlerinin Olumlu ve Olumsuz Etkileri

1. Olumlu Etkiler

Yapay zekâ teknolojileri, özellikle geniş veri kümelerini çok hızlı bir şekilde analiz edebilmeleri nedeniyle hızlı karar alma süreçlerine oldukça fayda sağlayabilecek sistemlerdir. Ayrıca sağlık sektöründe hastalık teşhislerinde, eğitim sektöründe ise kişiselleştirilmiş öğrenim stilleri sunmada kullanılan yapay zekâ sistemlerinin sağlayacağı fayda ve zamandan tasarruf yadsınamayacak düzeydedir. Keza anlık çeviri yapan yapay zekâ sistemleri de oldukça yaygın kullanılan, gündelik hayatı kolaylaştıran sistemlerdendir.

Ayrıca navigasyonlar, siber güvenlik uygulamaları, savunma sanayii, gibi alanlarda yapay zekâ sistemlerinden faydalanılmaktadır. Bunların yanı sıra, finans, tarım, enerji gibi birçok alanda da yapay zekâ sistemleri kullanılmaktadır. Örneğin, bankalarla gerçekleştirilen telefon görüşmelerinde kullanılan sesli yanıt sistemleri veya sesli asistanlar birer yapay zekâ ürünüdür. Keza, otonom sürüş özelliğine sahip olan araçlar veya insansız hava araçları, yapay zekâ sistemleri sayesinde otonom sürüş sağlayabilmektedir.

2. Olumsuz Etkiler

Yapay zekâ sistemlerinin insan hayatına oldukça faydası dokunsa da meydana getirdiği riskler de söz konusudur. Bu bağlamda öncelikle önyargı hususundan bahsedilebilir. Yapay zekâ sistemlerinin algoritmalarında kullanılan veriler önyargılı ise yapay zekâ sistemlerinin ürettiği veriler de önyargılı sonuçlar doğuracaktır. Örnek vermek gerekirse, işe alım sürecinde özgeçmişleri değerlendirmek için üretilen bir yapay zekâ modeli, önyargılı algoritma ile eğitilmesi sonucunda önyargılı kararlar verebilecek ve ayrımcılığa neden olabilecektir. Bu nedenle yapay zekâ sistemlerinin algoritmalarının şeffaf olması, genel kabul edilen etik ilkeler arasındadır. Şeffaflığın sağlanmasıyla yapay zekâ sisteminin algoritmasının önyargılı olup olmadığı da tespit edilebilecektir.

Bir başka olumsuz durum ise veri güvenliğine ilişkindir. Geniş veri kümelerini analiz eden yapay zekâ sistemleri, bu analizler sırasında gizlilik ihlaline neden olabilecektir. Söz konusu gizlilik ihlali, veri analizi için yapılan geniş taramalar sırasında kişisel verilerin ele geçirilmesi yoluyla olabileceği gibi kullanıcıların yapay zekâ sistemini kullanırken sağladığı verilerin kullanılması şeklinde de olabilecektir. Bu bağlamda adil davranmayan veya veri güvenliğini ihlal eden sistemlerin insan haklarını zedeleyebileceğinden söz etmek mümkündür.

Ayrıca, yapay zekâ sistemlerinin kullandığı algoritmaların çalışma şekli çoğu zaman belirlenemez. Hatta bu algoritmalar için Avrupa Birliği Yapay Zekâ Kullanımında Etik Kılavuzunda “kara kutu” ifadesi kullanılmaktadır. Bu nedenle yapay zekâ sisteminin verdiği bir zarar söz konusu olduğunda sorumluluk kavramının kime atfedileceği bir problem yaratmaktadır.

Son olarak, yapay zekâ sistemlerinin birçok iş görebilmesi ve çok sayıda işi kolaylaştırması nedeniyle belli kategorilerde istihdam azalabilecektir. Bu durum da belli alanlarda işsizlik problemi doğurabilecektir.

  1. Etik İlkeler  

Yapay zekâ sistemlerinin kullanımında dikkat edilmesi gereken hususlar Dünya Ticaret Örgütü (“WTO”), Dünya Sağlık Örgütü (“WHO”), UNESCO, Birleşmiş Milletler (“BM”), Avrupa Birliği (“AB”) ve Türkiye Barolar Birliği (“TBB”) gibi birçok topluluk tarafından değerlendirilmiş ve bu konuda birtakım etik ilkeler öngörülmüştür. Bu etik ilkeler bağlayıcı olmasa da yapay zekâ sistemlerinin güvenli bir şekilde kullanımı sağlayabilmek için göz ardı edilmemesi gereken hususlardır.

WTO tarafından yayınlanan standartlar kısaca ürünlerin, sistemlerin ve süreçlerin tanımlanması, uygunluk gereksinimlerinin belirlenmesi, ticaretin devamlılığı ve kalitenin sağlanması olarak özetlenebilir. Sistemlerin tanımlanması, muhatabın bu konuda bilgi sahibi olabilmesi bakımından önemli bir husustur. Muhatabın kullanılan sistemi, bu sistemin riskleri bilmesi ve buna yönelik davranması gerekmektedir.

WHO tarafından yayınlanan kılavuzda yer alan ilkeler ise insan özerkliğini korumak, insan refahını, güvenliğini ve kamu yararını teşvik etmek, şeffaflığı, açıklanabilirliği ve anlaşılabilirliği sağlamak, sorumluluk atfedebilmek ve hesap verebilirliği teşvik etmek, katılımcılığı ve eşitliği sağlamak, yanıt veren ve sürdürülebilir yapay zekayı teşvik etmek olarak sıralanabilir.

UNESCO tarafından yapay zekâ kullanımında etik hususunda belirlenen ilkeler ise orantılı olma ve zarara yol açmama, güvenli olma, adil olma ve ayrımcılık yapmama, sürdürülebilirliği sağlama, gizliliğin sağlanması ve verilerin korunması, insan denetiminin sağlanması, şeffaf ve açıklanabilir olma, sorumluluğun kurulabilmesi, yapay zekâ üzerine farkındalık yaratılması, uyum sağlayan yürütme anlayışının benimsenmesi olarak sıralanabilir. Belirtmek gerekir ki, UNESCO tarafından yayımlanan bu ilkeler BM tarafından da benimsenmiştir.

AB tarafından ise 2019 yılında yapay zekâ kullanımında etik ilkelere ilişkin bir kılavuz yayınlanmış, 2024 Ağustos’ta ise yapay zekâ sistemlerine ilişkin tüzük yürürlüğe girmiştir. Kılavuzda belirlenen etik ilkeler insan denetimi, güvenliğin sağlanması, gizlilik ve veri korunması, şeffaflık, çeşitlilik, ayrımcılık yapmama ve adil olma, toplumsal ve çevresel refahın sağlanması, hesap verebilir olma şeklindedir.

Öte yandan, TBB tarafından da “Güvenilir Yapay Zekâ İlkeleri” yayınlanmıştır. Bu ilkeler de yapay zekâ sistemlerinin kullanımına ilişkin etik çerçeve çizmektedir. Söz konusu ilkeler şu şekildedir:

  • İnsan unsuru ve gözetim
  • Teknik sağlamlık ve güvenlik
  • Gizlilik ve veri yönetişimi
  • Şeffaflık
  • Çeşitlilik, ayrımcılık yapmama ve adalet
  • Toplumsal ve çevresel fayda
  • Hesap verebilirlik

Bu bağlamda, yapay zekâ sistemleri bakımından önce temel haklar etki değerlendirilmesi yapılmalıdır. İnsan gözetimi altında çalıştırılan, insan otonomisine zarar vermeyen sistemler geliştirilmelidir. Ayrıca kötüniyetli kullanımlar öngörülmeli ve bunları önlemeye yönelik tedbirler alınmalı, yedek planlar hazırlanmalıdır.

Güvenilir bir yapay zekâ sistemi oluşturulmalıdır. Verilere erişim ve veri koruma gibi hususlar bakımından güvenilir bir sistem yaratılması gerekmektedir. Zira, kullanıcılar tarafından sağlanan verilerin korunması önem arz eder. Bunun yanı sıra, şeffaf ve açıklanabilir bir sistem oluşturulması gerekir. Bu bağlamda, yapay zekâ sisteminde kullanılan algoritmaların denetlenebilir olması gerekmektedir.

Yukarıda da bahsedildiği üzere, TBB’nin yayınladığı ilkeler uyarınca da önyargılardan uzak bir yapay zekâ sistemi oluşturulmalıdır ki yapay zekanın ürettiği çıktılar da önyargısız olsun. Aksi halde ayrımcılık söz konusu olacak ve temel hakların zedelenmesi gündeme gelecektir. Bu durumun bir yansıması olarak yapay zekâ sistemlerinin hesap verebilir nitelikte olması gerekmektedir. Zira, yapay zekâ sistemlerinin olumsuz sonuçlarının denetlenebilmesi ve bunlar bakımından telafi mekanizmaları öngörülmesi önem arz edecektir.

Görüldüğü üzere yapay zekâ sistemlerinin neden olabileceği riskler genel olarak ayrımcılığa neden olma, adil davranmama, kişisel verilerin ele geçirilebilmesi, zarar sonucunda sorumluluk atfedilememesi, güvenilir olmayan algoritmalar kullanılabilmesi olarak değerlendirilmiş, bunun sonucunda her topluluk tarafından benzer ilkeler ilan edilmiştir. Ayrıca insandan ari bir sistem yaratılmaması amaçlanmış, yapay zekâ sistemlerinin kullanıldığı durumlar için mutlaka insan denetiminin ve gözetiminin olması gerektiği vurgulanmıştır. Bu bağlamda, yapay zekanın meydana getirebileceği risklerin ve dolayısıyla da bu riskleri önlemek için öngörülen etik ilkelerin küresel bir değer taşıdığından bahsetmek mümkündür.

D. Hukukta Yapay Zekâ Kullanımında Etik İlkeler

Hukuk alanında da yapay zekâ sistemlerinin kullanımı yaygınlaşmaya başlamıştır. Hatta sadece hukuki anlamda destek sağlayan “Ross Intelligence” ve “Harvey” gibi yapay zekâ sistemleri de üretilmiştir. Bu sistemler genel olarak “ChatGPT” gibi çalışan, kendilerine yöneltilen hukuki sorunlara eğitildikleri hukuki kaynaklar ve emsal kararlar ışığında cevap veren sistemlerdir.

Yapay zekâ sistemlerinin kullanımının yaygınlaşmasıyla birlikte Temmuz 2024’te Amerikan Barolar Birliği (“ABA”) tarafından hukuk alanında yapay zekâ kullanımına ilişkin etik ilkeler hakkında bir kılavuz yayınlanmıştır. Bu kılavuzda avukatların yapay zekâ sistemlerini kullanması durumlarına ilişkin yetki, gizlilik, iletişim ve ücretler gibi hususlarda düzenlemeler yapılmıştır.

Söz konusu kılavuzda avukatların hukuki bilgi ve çalışma bağlamında yetkin olması gerektiği ve hukuki hizmetleri sunmaları için kullanılacak teknolojik araçların faydalarının ve risklerinin bilincinde olması gerektiği düzenlenmiştir. Bu bağlamda, avukatların kullandıkları yapay zekâ sistemlerinin risklerini biliyor ve bunları denetleyebiliyor olması önem arz eder.

Ayrıca, yapay zekâ araçlarını kullanan avukatların, müvekkillerinin temsiline ilişkin bilgileri müvekkilin rızası olmadıkça gizli tutması gerekmektedir.

Bunların yanı sıra, avukatlar, temsil sürecinde yol alma şeklini müvekkillerine makul ölçüde danışarak belirlemeli, müvekkilin bilmesi gereken bilgileri iletmelidir. Bu doğrultuda, yapay zekâ sistemlerinin kullanılması hususunda da müvekkillere bilgi verilmesi gerekmektedir.

Son olarak, ABA kılavuzuna göre avukatlık ücret ve masraflarının makul olması gerekmekle birlikte, avukatların yapay zekâ aracı kullanarak bir dilekçe taslağı hazırlayıp gerekli bilgileri programa girdikten sonra geçen 15 dakikayı ve taslağın doğruluğunu kontrol etme süresini ücretlendirebileceği belirtilmiştir. Buna karşılık, avukatlar yapay zekâ aracının çalışma şeklini öğrenmek için harcadığı süre bakımından müvekkilden ücret talep edemeyecektir.

Bu düzenlemeleri takiben ABA tarafından verilen bir resmi görüş de yukarıda belirtilen kurallara uyulması gerektiğini şu şekilde vurgulanmıştır:

“Avukatlar ve mahkemeler tarafından teknolojinin sürekli gelişmesiyle birlikte, avukatların etik sorumluluklarına uymalarını ve müvekkillerinin korunmasını sağlamak için Mesleki Davranış Kurallarına uyma konusunda dikkatli olmaları gerekir.”

Özetle, avukatların kullandığı sistemin risklerinin bilincinde olarak hareket etmesi, yapay zekâ sistemleri kullanılarak üretilen çıktıların yapay zekâ eliyle üretildiğinin belirtilmesi önem arz etmektedir. Esasında, burada AB Yapay Zekâ Tüzüğü’nde yer alan düzenlemelere benzer etik ilkeler görmekteyiz. Yukarıda açıklanan nedenlerle ABA tarafından yapılan bu düzenlemelerin diğer ülkelere de yayılması önem arz etmektedir.

E. Sonuç

Teknolojinin gelişimiyle yapay zekâ sistemlerinin insan hayatında edindiği yer nedeniyle, bu sistemlerin sağladığı faydalar ve neden olduğu riskler bakımından tedbirli hareket edilmesi gerekmektedir. Bu sistemlerin sağladığı faydalardan yararlanırken neden olabileceği riskler görmezden gelinmemeli, bu hususlara yönelik hukuki düzenlemeler yapılmalıdır. Eşitlik, adalet, veri gizliliği gibi temel hakların kolaylıkla ihlal edilebileceği bir sisteme cevaz verilmemelidir. Her ne kadar AB’de yapay zekâ sistemlerinin üretimi ve kullanımı için düzenlenmiş ve yürürlüğe girmiş bir tüzük olsa da, daha güvenli bir alan yaratmak için bu sistemlerinin kullanımı bakımından çizilen ve çizilecek olan etik ilkelere uyum sağlanması için daha somut adımlar atılmalı, özellikle profesyonel hizmet sektöründe kullanılabilecek kurallar oluşturularak teknoloji ile uyumlu şekilde, düzenli olarak güncellenmelidir.

@Ece BAYAR

Bizimle temasa geçin