Yapay zeka algoritmalarının daha şeffaf hesap verebilir ve etik yönergelerle desteklenmesi ise yanlışların önlenmesine yardımcı Karaköy escort bayan olabilir
Yapay zeka algoritmaları hakkında dikkat edilmesi gereken bahisler genelde şu alanlarda kümeleniyor
İnsan önyargıları Yapay zeka algoritmaları beşerler tarafından geliştirildiği için insan önyargılarının algoritmaya yansıması mümkündür Bu nedenle algoritmaların Escort Kayaşehir geliştirilmesi evresinde önyargıların minimize edilmesine dikkat edilmelidir
Veri eksikliği Algoritmaların hakikat sonuçlar vermesi için kâfi ve gerçek dataya muhtaçlıkları vardır Fakat kimi durumlarda kâfi data bulunamayabilir yahut yanlış bilgiler algoritmaya Küçükçekmece escort yansıyabilir
Güvenlik açıkları Algoritmaların güvenliği ve data kapalılığı konusunda da dikkatli olunması
gerekmektedir Birtakım durumlarda algoritmaların güvenlik açıkları nedeniyle istenmeyen sonuçlar ortaya çıkabilir
Algoritmaların açıklanamaması Algoritmaların nasıl çalıştığına dair kâfi bilginin olmaması sonuçların gerçek olup olmadığına dair kuşkuları beraberinde getirebilir
Sınırlı kullanım alanları Algoritmaların kullanım alanlarının hudutlu olması ve algoritmaların tek bir alanda başarılı olup öbür alanlarda yanılgılar yapabilmesi üzere durumlar kelam konusu olabilir
Yanlış sonuçlar Algoritmaların bilgi yanlışlıkları yahut yanılgılı programlamalar nedeniyle yanlış sonuçlar verebilmesi mümkündür
İşsizlik Yapay zeka algoritmalarının kullanımı işsizliği artırabilir Örneğin kimi işlerin robotlar tarafından yapılması nedeniyle insan iş gücüne muhtaçlık kalmayabilir
Etik sıkıntılar Birtakım yapay zeka uygulamaları etik problemler ortaya çıkarabilir Örneğin insan haklarına hürmet göstermeyen yahut ayrımcılık yapan algoritmalar kullanılabilir
İşleyişin karmaşıklığı Yapay zeka algoritmalarının işleyişi epeyce karmaşıktır ve bu nedenle algoritmaların yanılgılarının fark edilmesi sıkıntı olabilir
Tarihte yapay zeka modellerinin tarihte yaptığı kimi kritik kusurlar şunlar
ABD tarafından geliştirilen bir yazılım, Sovyetler Birliği’nden bir nükleer akın olduğunu düşündü ve yanlışlı bir formda ABD’nin nükleer silahlarını ateşlemesi için ihtar verdi.
2010’da bir arabanın kazaya neden olması:
Stanford Üniversitesi’ndeki araştırmacılar, yapay zeka sürüş sistemi öğrenirken, bir otomobil kaza yaptı ve kazaya neden olan bir yanılgıya işaret etti.
2016’da Microsoft Tay chatbot’unun ırkçı telaffuzları:
Microsoft’un toplumsal medya botu Tay, kullanıcılardan öğrendiği yanlış bilgiler nedeniyle ırkçı ve ayrımcı iletiler yayınladı.
2018’de Çin’de yüz tanıma kusuru:
Çin’deki bir okul, öğrencilerin yüzlerini tanımak için kullanılan bir sistemde kusur yaptı ve bir veliye bir yabancı olarak tanındı.
2019’da bir hava taşıtının düşmesi:
Boeing 737 Max’in otomatik pilota sahip sistemlerindeki yanılgı, iki farklı kazada 346 kişinin vefatına neden oldu.
2019’da bir kanser teşhisi yanılgısı:
Bir yapay zeka modeli, kanser teşhisi için kullanıldığında, sağlıklı hücreleri kanserli olarak yanlış teşhis etti.
2020’de bir alışveriş uygulamasında fiyat yanlışları:
Bir alışveriş uygulaması, yapay zeka modeli kusurları nedeniyle, olağanda çok daha yüksek fiyatlı olan birtakım eserleri 1 dolara sattı.
2018’de Amazon’un cinsiyetçi özgeçmiş kıymetlendirme süreci
2018 yılında Amazon’un geliştirdiği yapay zeka algoritmasının cinsiyet ayrımcılığı yaptığı ortaya çıktı. Algoritmanın CV’leri değerlendirirken bayanların özelliklerine daha az tartı verdiği ve erkek adayların müracaatlarını daha çok kabul ettiği tespit edilmişti.
2016: Microsoft Tay Bot’un içerik kirliliği
Microsoft Tay botu, kullanıcılarla konuşarak kendisini geliştiren bir sohbet botu olarak tasarlandı. Lakin, Twitter’daki kullanıcıların cevap vererek botu manipüle etmesi sonucunda bot, ırkçı, cinsiyetçi ve aşırılık yanlısı içerik üretmeye başladı. Bu durum, Microsoft’un insan kontrolü olmadan yapay zeka sistemleri üretmenin risklerine dair bir örnek teşkil etti.
Stanford Üniversitesi tarafından geliştirilen bir yapay zeka modeli, deri rengi ile alakalı tabirleri kullanarak rassiyalist sözleri kestirim edebildiği ortaya çıktı. Bu durum, yapay zeka sistemlerinin önyargılı sonuçlara yol açabileceği konusunda ikaz verdi.