DOLAR 33,0369 -0.03%
EURO 36,0048 0.16%
ALTIN 2.551,090,02
BITCOIN 22204300.80777%
İzmir
33°

AÇIK

SABAHA KALAN SÜRE

Yapay zekanın ayrımcılık yapmaması insanların ayrımcı olmamasına bağlı
109 okunma

Yapay zekanın ayrımcılık yapmaması insanların ayrımcı olmamasına bağlı

ABONE OL
22/07/2024 06:40
Yapay zekanın ayrımcılık yapmaması insanların ayrımcı olmamasına bağlı
0

BEĞENDİM

ABONE OL

AA

İSTANBUL (AA) – “Yapay Zeka: Şahsî Bilgiler, Algoritmalar ve Tehditler” başlıklı belge haberin altıncı kısmında yapay zeka kullanılarak yapılan ayrımcılık örnekleri değerlendirildi.

Dijital çağın en büyük teknolojik icatlarından biri olan yapay zeka, getirdiği yeniliklerle birlikte yarattığı meselelerle da gündeme gelmeye devam ediyor. Yapay zeka sistemleri ile ilgili son devirde en büyük problemlerden biri olarak ise ırkçılık ve ayrımcılık ön plana çıkıyor.

Mevcut datalarda bulunan önyargı ve ayrımcılık üzere istenmeyen özellikleri de öğrenen yapay zeka eserler, bu sebeple geçmişte pek çok skandala imza attı. 2016 yılında Microsoft tarafından geliştirilen ve X (eski ismiyle Twitter) kullanıcılarla etkileşim halinde olması hedeflenen yapay zeka hesap “Tay”, çok kısa bir mühlet içinde gerçek kullanıcıların tweetlerinden beslenerek ırkçı ve islamofobik tweetler atmaya başlamış ve bu sebeple Microsoft, Tay’ın tweetlerine müdahale etmek zorunda kalmıştı.

Yapay zeka uzmanı Prof. Dr. Murat Kirişci, AA muhabirine yaptığı açıklamada, algoritmaların bilgilerden öğrendiğine dikkati çekerek, “Bu kaynaklarda var olan taraflı, ayrımcı, ırkçı bilgiler de algoritmalar tarafından işlenmekte ve sonuçta araçlar ayrımcı, ırkçı kararlar almaya başlamaktadır.” dedi.

Sorunun algoritmaları besleyen bilgilerde, münasebetiyle o dataları elde eden, üreten beşerde olduğuna vurgu yapan Kirişci, “Irkçılık, eşitsizlik özünde datanın bir yanılgısı değil, şahsen datanın bir özelliğidir. Datayı üreten, algoritmaları yazan, araçları dizayn eden insanın tüm önyargıları, yanlılıkları ve zihnindeki olumsuzluklarıdır sorun olan.” formunda konuştu.

Kirişci, ayrımcılık yapan algoritmaların hayatın her yerinde var olabileceğini belirterek, kelamlarını şöyle sürdürdü:

“Irkçı algoritmalar bir iş yerinde, kişinin işe alınmasından, şirkette çalışırken birçok mevzuya tesir edebilir. Mesela iş müracaatlarında erkekleri tercih eden algoritmalar mevcuttur. Koyu derili şahıslarda düzgün çalışmayan bir toplumsal medya filtresinden yahut nörolojik açıdan külfetli öğrencilerin davranışlarını hesaba katmadan bu bireylere ayrımcı bir önyargı ile yaklaşan yapay zekalar çok sıklıkla karşılaşılan araçlardır. Bölgelerinde siyahi ya da farklı ırktan insanların oturmasını istemeyenlerin taleplerine nazaran üretilmiş algoritma, ırkçı, ayrımcı konut satışı-kiralaması yapmaktadır.

Yüz tanıma sistemlerinde siyahileri ya da cilt rengi ortamdaki bireylerden farklı olanları hatalı görme eğiliminde olan algoritmalar birçok pak kişiyi hürriyetinden mahrum bırakmaktadır. Irkçı algoritmalar yüzünden sosyo-ekonomik geçmiş, eğitim ve yaşanılan bölgeye nazaran tanımlanan şahıslar polis tarafından daha fazla müşahede altına tutulabilmektedir. Şiddet uygulayan kişi ya da kümeleri paka çıkartan ırkçı algoritmalar mevcuttur. Hakkını savunana toplumları (örneğin Filistin halkını) marjinalleştirip kötüleyerek yok olmalarını haklı sebeplere dayandıracak algoritmalar bilhassa toplumsal mecrada kullanılmaktadır.”

“İnsan düzelmedikçe…”

İnsanların zihninde algoritmaların daha tarafsız olduğu istikametinde bir algı olduğunu söyleyen Kirişci, insanların tüm önyargılarının algoritmalar vasıtasıyla o araçlara geçtiğini ve bu araçların vakit zaman daha ırkçı, daha taraflı ve ayrımcı olabildiğini söyledi. Kirişci, “İnsanlar ortasında nasıl ki bir küme bir öteki kümeye nazaran orantısız davranışlar sergileyebiliyorsa yapay zeka araçlarının hepsi birebir halde önyargı ve ırkçı orantısızlıklar uygulamaktadır. Yapay zeka gelişip hayat içerisinde yaygınlaştıkça bu adaletsizlik ve ırkçılık da giderek hayatın içerisinde farklı yapay zeka araçlarıyla yürütülmektedir. Bu karmaşa içinde bir yapay zekanın daha adil olmasının tek yolu veri-bilgi aldığı insanoğlunun daha adil olmaya çalışmasıdır. İnsan düzelmedikçe yapay zekadan daha düzgün sonuçlar beklemek imkansızdır.” değerlendirmesinde bulundu.

Muhabir: Abdulkadir Günyol

En az 10 karakter gerekli