YAPAY ZEKA FACİASI SON ANDA ÖNLENDİ!

Amazon’un sesli asistanı Alexa, 10 yaşındaki çocuktan bozuk parayı fişe sokmasını istedi Yapay zekanın son örneklerinden Amazon'un sesli asistanı Alexa, 10 yaşındaki bir çocuktan bozuk parayı prize takmasını istedi. Olası bir facia son anda önlense de, bu sesli asistanların karıştığı ilk skandal değil....

YAPAY ZEKA FACİASI SON ANDA ÖNLENDİ!
Editör: Arpak Medya
29 Aralık 2021 - 18:39

Amazon’un sesli asistanı Alexa, 10 yaşındaki çocuktan bozuk parayı fişe sokmasını istedi

Yapay zekanın son örneklerinden Amazon'un sesli asistanı Alexa, 10 yaşındaki bir çocuktan bozuk parayı prize takmasını istedi. Olası bir facia son anda önlense de, bu sesli asistanların karıştığı ilk skandal değil....

Amazon’un sesli asistanı Alexa, 10 yaşındaki çocuktan bozuk parayı fişe sokmasını istedi

Amazon’un Alexa isimli sesli asistanı, 10 yaşındaki bir çocuğa bir “meydan okumanın” bir parçası olarak kendisine ‘elektrik vermesini’ tavsiye etti.

Kristin Livdahl isimli kadın, yaşananları Twitter hesabından yayınladı. Livadh, kızının eve geldiğinde Alexa’dan kendisi için bir meydan okuma önerdiğini söyledi. Amazon Alexa ise bu talebe karşılık ‘İşte internette bulduğum bir meydana okuma’ yanıtını verdi.

Alexa, “İşlem çok kolay: Bir telefon şarj cihazını duvar prizinin yaklaşık yarısına kadar takın, ardından açıkta kalan uçlara bir bozuk para dokundurun.” dedi.

ANNESİ ARAYA GİRDİ
Livadh, “Tam oradaydım ve Hayır, Alexa, hayır!” diye bağırdım. Neyse ki kızım böyle bir şey yapmayacak kadar akıllı.” yazdı.

Amazon, yaşananların ardından yayımladığı açıklamada veri tabanında değişikliğe gidildiğini ve birdaha böyle hatalar yaşanmaması için önlem aldıklarını duyurdu.

Bir Amazon sözcüsü yaptığı açıklamada, “Müşteri güveni, yaptığımız her şeyin merkezinde yer alıyor ve Alexa, müşterilere doğru, alakalı ve yararlı bilgiler sağlamak için tasarlandı.” dedi. Yetkili, “Bu hatanın farkına varır varmaz, düzeltmek için hızla harekete geçtik.” açıklamalarında bulundu.

DONALD TRUMP’A CİNSEL ORGAN DEMİŞTİ

Google, Siri ve Alexa gibi sesli asistanlar bilgilerini yaygın arama motorlarından alır, ancak bilgileri etkin bir şekilde kontrol etme yeteneğine sahip değildir ve bu nedenle yanlış veya rahatsız edici sonuçlar açıklayabilir.

Aralık 2020’de Alexa’nın komplocu ve ırkçı sözleri tekrarladığı tespit edilmiş, hatta Alexa bazı dinlere saygısızlık ettiği öne sürülmüştü.

2018’de Apple’ın Siri sesli asistanı, birisinin, ABD Başkanının Wikipedia sayfasını değiştirmesi ve Siri’nin bilgileri oradan çekmesi nedeniyle Donald Trump’ı erkek cinsel organı olarak betimlemişti.

kaynak: sözcü.com


FACEBOOK YORUMLAR

YORUMLAR

  • 0 Yorum
  • Yorum yazabilmek için lütfen üye girişi yapınız.