Dolar 32,2964
Euro 34,9583
Altın 2.449,17
BİST 10.173,42
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul °C
İstanbul
°C
°C
°C
°C
°C

IBM yapay zekanın önyargılarını tespit edecek

Dünyanın en büyük bilişim teknolojisi şirketi IBM, algoritmaların verdiği kararların nasıl ve neden verildiğini anlık olarak analiz edebilecek bir araç geliştirdi.

IBM yapay zekanın önyargılarını tespit edecek
22 Eylül 2018 13:07
476

Google’ın fotoğraf algoritmasının Afrika kökenli Amerikalıları “goril” olarak tanımlaması gibi örnekler, yakın gelecekte hayatın her alanında kullanılma ihtimali bulunan bu algoritmaların ne kadar önyargılı olduğunu tartışmaya açmıştı.

Fairness 360 (Adalet 360) adı verilen araç, yapay zekanın önyargılara sahip olup olmadığının belirtilerini tarayarak gerekli düzenlemeler konusunda önerilerde bulunacak.

Teknoloji devleri ve diğer şirketler tarafından kullanılan algoritmaların karar verme sürecinde her zaman adil olmadığına dair endişeler son dönemde artıyor.

Örneğin bazı yüz tanıma algoritmalarının beyaz yüzleri tanırken siyah yüzleri tanıyamadığı ortaya çıkmıştı.

Bu algoritmalar artık emniyet, sigorta veya internet içerikleri gibi pek çok alanda kullanıldığı için olası bir önyargının geniş etkileri olabilir.

Algoritmalar genellikle “kara kutu” mantığına göre işliyor, yani çalışma sürecinde algoritma sahipleri hangi kararın nasıl ve neden verildiğini göremiyor.

IBM’in bulut temelli yazılımı açık kaynaklı ve algoritma geliştirmek için yaygın olarak kullanılan platformlarla uyumlu olacak.

IBM’in arayüzünün bir örneği

Tüketiciler bir arayüz üzerinden algoritmaların nasıl karar verdiğini ve kararı verirken hangi faktörleri değerlendirdiğini görebilecek.

Algoritmanın hata oranı, performansı ve adilliği de incelenebilecek.

IBM’in Bilişsel Çözümler Birimi Başkan Yardımcısı David Kenny, “Yapay zeka kullanan ve hatalı bir kararın yaratacağı risklerle karşı karşıya olan şirketlere şeffaflık ve kontrol sağlıyoruz” diyor.

Google’ın geliştirdiği arayüzün kullanımına bir örnek olarak sunulan bu görselde gülen suratlar maviyle, gülmeyenler ise kırmızıyla işaretlenmiş

Diğer teknoloji şirketleri de aynı soruna benzer çözümler getirmek için çalışmalar yürütüyor.

Google geçen hafta duyurduğu bir araçla kullanıcıların makine öğrenimi modellerinin nasıl çalıştığını görmesine olanak sağlamıştı.

Fakat Google’ın geliştirdiği araç gerçek zamanlı değil. Bu araç verileri zaman içinde değerlendirerek genel bir tablo sunuyor.

Makine öğrenimi ve algoritmalarda önyargı, yapay zeka topluluğunun son dönemdeki önemli gündem maddelerinden birini oluşturuyor.

Microsoft ve Facebook da benzer önyargı tespit araçlar geliştirdiklerini açıklamışlardı.

Problemin bir kısmı, algoritmaların öğrenmesi için sunulan verilerin yeterli çeşitliliğe sahip olmamasından kaynaklanıyor.

Bilgisayarının yalnızca beyaz bir maske taktığında yüzünü tanıyabildiğini fark eden Massachusetts Institute of Technology öğrencisi Joy Buolamwini , 2016’da Algoritmik Adalet Birliği (AJL) adlı bir örgüt kurmuştu.

Google, 2015 yılında fotoğraf algoritmasının Afrika kökenli Amerikalıları “goril” olarak tanımlamasının ardından, “dehşete kapıldıklarını ve içten bir şekilde özür dilediklerini” söylemişti.

2017’de de Liberty adlı insan hakları örgütü İngiltere’de polislerin, suça karışanların cezaevinde tutulup tutulmayacağına dair artan bir oranda algoritma kullanmaya başladığını, bu algoritmanın da sadece insanların yaşı, cinsiyeti ve adresini temel aldığı konusunda bir uyarı yayınlamıştı.

Joy Buolamwini yüzünü tanıyamayan bilgisayarının beyaz bir maske taktığında yüzünü tanıdığını ortaya çıkarmıştı

Dünya Ekonomik Forumu’ndan Kay Firt-Butterfield, yapay zeka ve etik üzerine tartışmaların yoğunlaşmakta olduğunu söylüyor:

“Bir hukukçu olarak, algoritmaların yanlış kararlarını ortaya çıkarma yöntemleri hakkında yapılan tartışmaları gerçekten ilgi çekici buluyorum.

“Önyargıdan bahsederken ilk endişelendiğimiz konu bu algoritmaları yaratanların çoğunun genç beyaz insanlar, genelde de erkekler olması. Bu yüzden Batı’da endüstriyi daha çeşitli hale getirmemiz gerekiyor.”

Paylaşın:
Objektif, tarafsız, şeffaf, hakaret olmadıkça her görüşe saygılı olmaya çalışıyoruz, sağı solu olmadan bütün siyasi haberlerinizi yayınları...
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.

Mesaj Gönder
Merhaba, yayınlanmasını istediğiniz mesajınızı bize iletin, yayınlayalım.