Yapay zeka, ırkçı algoritmalarla oluşturulduğunda insanlığı tehdit ediyor

bencede

New member
Facebook, Twitter, Google üzere büyük şirketler ve çeşitli boyutlardaki toplumsal medya platformlarının yazılımlarına yerleştirilen ırkçı algoritmalarla siyahiler maymunla, Filistin sözü ise terörle eşleştiriliyor.

Yapay zeka, ırkçılaşabilir mi?

Bilgisayar bilimleri, algoritmalar ve yapay zeka üzerine araştırmalar yapan Cerrahpaşa Tıp Fakültesi, Temel Tıp Bilimleri Kısmı, Biyoistatistik Ana Bilim Kolu Öğretim Üyesi Prof. Dr. Murat Kirişçi, yapay zekanın nasıl ırkçı sistemler haline getirildiği hakkında değerlendirmelerde bulundu.


“Filistin ya da Myanmar üzere bölgelerde ayrımcı algoritmalar var”

AA’nın haberine göre; Prof. Dr. Kirişçi, algoritmaların, programcılarının zihnindeki ayrımcı sistemlere nazaran çalıştığını belirterek, Filistin ve Myanmar üzere bölgelere yönelik ayrımcı algoritmaların varlığına işaret etti. Kirişçi şöyleki devam etti:

“Algoritmalar, beyazların tasarladığı dünyada siyahileri kötüleyecek biçimde çalışıyor. Filistin sözü geçtiğinde altyazıda teröristi kullanıyor. Kimi insanları, birtakım toplulukları ve hatta bir ülkeyi yok sayan algoritmalar var. Myanmar’ı bir yer olarak ortaya koymayan, orada yaşayanları insan olarak da tanımlamayan epeyce sert algoritmaların çalıştığı haber siteleriyle karşılaştık. Bu daima oluyor mu? Evet, oluyor. aslına bakarsan sorun da buradan çıkıyor. O kadar epeyce ırkçı telaffuz var ki bir anda kriminal olaylar algoritmalarla paka çıkartılıp pak olaylar kirletiliyor.”



“Floyd’un katili polis, suçsuz üzere gösterildi”

ABD’de polis şiddeti kararı ömrünü kaybeden siyahi George Floyd hadisesinin akabinde kimi ırkçı yazılımların fail polis memurunu suçsuz gösterdiğini aktaran Kirişçi, “Floyd hadisesini tersten sunan algoritmaların az yahut epeyce olmasından çok kimi algoritmaların suçsuz bir mantıkta çalışmadığını fark etmek değerli. Siz ne yaparsanız yapın algoritmalar onu yazanın zihnindeki ayrımcı sistemlere nazaran çalışıyor.” sözünü kullandı.


“Algoritma ya da yapay zeka değil onları programlayanlar ırkçı”

Kirişçi, yapay zekanın en sıradan haliyle “insanın düşünme biçimini makinalara öğretmeye çalışma” formunda tanımlanabileceğini kaydederek, bu niçinle teknolojik ürünlere “akıllı” denmesinin gerçek olmadığını söz etti.

Irkçı algoritmaları tartışırken aslında ırkçı zihniyetlerin tartışılması gerektiğinin altını çizen Kirişçi, “Irkçı olan yahut ayrımcılık yapan aslında algoritmalar değil. Tırnak ortasında ‘İnsanı yok edeceğini argüman ettiğimiz algoritmalar’ mümkün değil. Biz bu sıkıntıyı konuşurken onları üreten, bu fikri veren ve onlara nasıl düşünmesi gerektiğini anlatan insanın sıkıntılarını tartışmış oluyoruz. Aksi takdirde gerçek şahısla gayret etmek yahut karşı durmak yerine soyut, bilinmeyen bir şeyle uğraşıyoruz.” dedi.

Kirişçi, arama çubuğuna “ape” (maymun) yazıldığında eski ABD Lideri Barack Obama’nın eşi Michelle Obama’nın fotoğrafının çıktığı algoritma çalışmasının reaksiyonlara niye olduğunu aktararak, “Barack Obama’nın ABD Lideri olduğu periyotta Beyaz Sarayı ‘zenci sarayı’ olarak tanımlayan algoritmalar var. Bu ırkçılığı üreten yapıyı bir makine niçin yapsın ki? Bir algoritma yahut makine kendi kendine sizi yahut beni niçin kötülesin? Temelinde makinenin bu biçimde bir imkanı yok ama onun ardındaki fikir dünyasını, yani akıl eden iradeli varlığın algoritmayı bu türlü organize etmesi mümkün.” halinde konuştu.


“Sanal dünya aslında dehşetli baskıcı, ırkçı ve ayrımcı”

Algoritmaların, haber siteleri ve toplumsal medya platformlarında ırkçı ve manipülatif gayelerle kullanıldığına dikkati çeken Kirişçi, şunları lisana getirdi:

“Sosyal medyada üretilen algoritmalar, sizin yaptığınız epey hoş bir çalışma şayet kendilerini kodlayanlar tarafınca rahatsız edici görülüyorsa, sizi platformun en ardına atıyor. Sizden kelam edildiğinde rastlanmayacak biçimde bloke ediyor. İnsanlara faydalı biroldukca şey ürettiğinizi var iseyalım, şayet yaptığınız işlerin bir sanayiye ziyan verdiği düşünülüyorsa blokaj uygulanıyor. Aslında siz hala orada varsınız lakin önünüze perde çekiliyor ve arandığınız vakit bile bulunmuyorsunuz. Tırnak ortasında özgür olan bu sanal dünya aslında müthiş baskıcı, ırkçı ve ayrımcı bir sistem. Yalnızca bunu kurgulayanlar kendilerini epey yeterli gizlemeyi başarmış.”



“Z jenerasyonu da geride kaldı, Alfa kuşağı geldi”

Kirişçi, küçük yaşlarındaki çocukların bile akıllı telefonları bilgi kaynağı olarak kullanabildiğini belirterek, “Z nesli da geride kaldı. Dijital dünyanın içine doğan bu çocuklara ‘Alfa nesli’ diyoruz. Çocuk toplumsal medyanın içine doğmuş. ötürüsıyla oradan yaşanan olayları öğreniyor ve hayatını ona bakılırsa organize ediyor. Çocukların biyolojik annesi yahut babasıyız fakat hayatlarını oraya bakılırsa organize ediyorlar. Bunların hepsi bir algoritmalar zinciriyle çalışıyor. Çocuklar ırkçı, ayrımcı yahut ideolojik hedeflerle da kullanılan bu algoritmalar tarafınca eğitiliyor.” diye konuştu.


“Irkçılık öğretilen yapay zeka insan hayatına tehdit oluşturabilir”

Yeni data kaynaklarından elde edilen daha büyük, daha karmaşık data kümelerini tabir eden “Big Data” (Büyük Veri) kavramı ve ayrımcılık konusuna değinen Kirişçi, “Big Veri’nin kendisinde de algoritma akışı var. Bir değil, binlerce hatta milyonlarca algoritma çalışıyor. O algoritmalar da kim ne organize ederse bilgi ona göre size karşılık veriyor. Bir zincir üzere düşünürsek, halkalarının rastgele bir yerinde bir daha beşerden bulaşan ayrımcılık noktası var ise birileri oraya müdahil olarak o bilgileri ayrımcı ve ırkçı biçimde organize edebilir.” değerlendirmesinde bulundu.


Kirişçi, yapay zekanın hayatın bir epey alanında kullanıldığı üzere mahkemelerde kullanılması için çalışmalar yapıldığını anlatarak, mahkeme modellemesinde kullanılacak yapay zekanın hatalı olan beyaz kişiyi suçsuz, pak olan siyahiyi ise hatalı kabul edilebileceğini söylemiş oldu. Kirişçi şunları kaydetti:

“İnsanlar nasıl karar verirken ırkçı ve ayrımcı tutum gösterebiliyorsa yapay zekaya ‘beyaz ve siyahi ayrımını’ ırkçı halde anlattığınız andan itibaren mahkeme süreçlerinin hepsi tıpkı kararı verecektir. Binlerce yargıçtan tahminen birkaçı ayrımcılık yapacak tahminen de buna hiç rastlamayacak. Tıpkı eğilimdeki bir makina ile karşılaştığınızda bütün davalarda birebir ayrımcılıkla karşılaşacaksınız. Bu aslında insan hayatını tehdit eden bir durum lakin aslında insan hayatını tehdit eden algoritma ve makinalar değil, akıllı ve iradeli varlık olan insan.”
 
Üst