3.6 C
New York kenti
Cumartesi, Kasım 23, 2024

Buy now

spot_img

Tarihte, yapay zeka algoritmalarının yaptığı 10 kritik yanılgı

Yapay zeka algoritmalarının daha şeffaf, hesap verebilir ve etik yönergelerle desteklenmesi ise yanlışların önlenmesine yardımcı olabilir.

Yapay zeka algoritmaları hakkında dikkat edilmesi gereken hususlar genelde şu alanlarda kümeleniyor:

İnsan önyargıları: Yapay zeka algoritmaları beşerler tarafından geliştirildiği için insan önyargılarının algoritmaya yansıması mümkündür. Bu nedenle algoritmaların geliştirilmesi etabında önyargıların minimize edilmesine dikkat edilmelidir.

Veri eksikliği: Algoritmaların gerçek sonuçlar vermesi için kâfi ve yanlışsız dataya gereksinimleri vardır. Fakat birtakım durumlarda kâfi bilgi bulunamayabilir yahut yanlış bilgiler algoritmaya yansıyabilir.

Güvenlik açıkları: Algoritmaların güvenliği ve bilgi kapalılığı konusunda da dikkatli olunması
gerekmektedir. Birtakım durumlarda algoritmaların güvenlik açıkları nedeniyle istenmeyen sonuçlar ortaya çıkabilir.

Algoritmaların açıklanamaması: Algoritmaların nasıl çalıştığına dair kâfi bilginin olmaması, sonuçların yanlışsız olup olmadığına dair kuşkuları beraberinde getirebilir.

Sınırlı kullanım alanları: Algoritmaların kullanım alanlarının sonlu olması ve algoritmaların tek bir alanda başarılı olup öteki alanlarda kusurlar yapabilmesi üzere durumlar kelam konusu olabilir.

Yanlış sonuçlar: Algoritmaların bilgi yanlışlıkları yahut kusurlu programlamalar nedeniyle yanlış sonuçlar verebilmesi mümkündür.

İşsizlik: Yapay zeka algoritmalarının kullanımı işsizliği artırabilir. Örneğin, kimi işlerin robotlar tarafından yapılması nedeniyle insan iş gücüne gereksinim kalmayabilir.

Etik meseleler: Birtakım yapay zeka uygulamaları etik meseleler ortaya çıkarabilir. Örneğin, insan haklarına hürmet göstermeyen yahut ayrımcılık yapan algoritmalar kullanılabilir.

İşleyişin karmaşıklığı: Yapay zeka algoritmalarının işleyişi epey karmaşıktır ve bu nedenle algoritmaların yanılgılarının fark edilmesi güç olabilir.

Tarihte yapay zeka modellerinin tarihte yaptığı kimi kritik yanlışlar şunlar:

1983’teki Sovyetler Birliği’ndeki nükleer savaş korkusu:
ABD tarafından geliştirilen bir yazılım, Sovyetler Birliği’nden bir nükleer taarruz olduğunu düşündü ve yanlışlı bir formda ABD’nin nükleer silahlarını ateşlemesi için ikaz verdi.

2010’da bir arabanın kazaya neden olması:

Stanford Üniversitesi’ndeki araştırmacılar, yapay zeka sürüş sistemi öğrenirken, bir otomobil kaza yaptı ve kazaya neden olan bir yanlışa işaret etti.

2016’da Microsoft Tay chatbot’unun ırkçı telaffuzları:

Microsoft’un toplumsal medya botu Tay, kullanıcılardan öğrendiği yanlış bilgiler nedeniyle ırkçı ve ayrımcı bildiriler yayınladı.

2018’de Çin’de yüz tanıma yanılgısı:

Çin’deki bir okul, öğrencilerin yüzlerini tanımak için kullanılan bir sistemde yanılgı yaptı ve bir veliye bir yabancı olarak tanındı.

2019’da bir hava taşıtının düşmesi:

Boeing 737 Max’in otomatik pilota sahip sistemlerindeki kusur, iki farklı kazada 346 kişinin vefatına neden oldu.

2019’da bir kanser teşhisi yanlışı:

Bir yapay zeka modeli, kanser teşhisi için kullanıldığında, sağlıklı hücreleri kanserli olarak yanlış teşhis etti.

2020’de bir alışveriş uygulamasında fiyat yanılgıları:

Bir alışveriş uygulaması, yapay zeka modeli yanılgıları nedeniyle, olağanda çok daha yüksek fiyatlı olan kimi eserleri 1 dolara sattı.

2018’de Amazon’un cinsiyetçi özgeçmiş kıymetlendirme süreci

2018 yılında Amazon’un geliştirdiği yapay zeka algoritmasının cinsiyet ayrımcılığı yaptığı ortaya çıktı. Algoritmanın CV’leri değerlendirirken bayanların özelliklerine daha az tartı verdiği ve erkek adayların müracaatlarını daha çok kabul ettiği tespit edilmişti.

2016: Microsoft Tay Bot’un içerik kirliliği
Microsoft Tay botu, kullanıcılarla konuşarak kendisini geliştiren bir sohbet botu olarak tasarlandı. Fakat, Twitter’daki kullanıcıların cevap vererek botu manipüle etmesi sonucunda bot, ırkçı, cinsiyetçi ve aşırılık yanlısı içerik üretmeye başladı. Bu durum, Microsoft’un insan kontrolü olmadan yapay zeka sistemleri üretmenin risklerine dair bir örnek teşkil etti.
2018: Stanford Üniversitesi ırkçılık skandalı
Stanford Üniversitesi tarafından geliştirilen bir yapay zeka modeli, deri rengi ile alakalı tabirleri kullanarak rassiyalist sözleri iddia edebildiği ortaya çıktı. Bu durum, yapay zeka sistemlerinin önyargılı sonuçlara yol açabileceği konusunda ikaz verdi.

KAYNAK : Sözcü

Related Articles

Stay Connected

0BeğenenlerBeğen
0TakipçilerTakip Et
0AboneAbone Ol
- Advertisement -spot_img

Latest Articles