racist

Gabimi racist i AI

Në fund të majit, Microsoft vendosi të marrë shumë nga redaktorët e saj njerëzorë për MSN News dhe t’i zëvendësojë ata me një AI.

Në fillim të kësaj jave, u shfaq një histori lajmesh në lidhje me përvojën e anëtares së grupit Little Mix, Jade Thirlwall përballë racizmit. Historia duket mjaft e pafajshme në fillim. Kjo derisa të kuptoni se AI e Microsoft ngatërroi dy prej anëtarëve të bandës së racës së përzier. Gabimi u theksua shpejt nga Thirlwall.

Nëse do të kopjoni dhe ngjisni artikuj nga media të tjera të sakta, mund të dëshironi të siguroheni që po përdorni një imazh të anëtarit të duhur të racës së përzier të grupit.

Redaktorët njerëzorë të Microsoft u tha që ishin të vetëdijshëm që AI më pas mund të botojë histori për gabimin e vet racist dhe t’i heqë ato manualisht.

Stafit të MSN gjithashtu u është thënë që të presin botimin e këtij artikulli të Guardian. Më pas të përpiqen ta fshijnë manualisht atë nga faqja e internetit. Kjo sepse ekziston një rrezik i lartë që redaktori i robotëve Microsoft që merr punën e tyre do të vendosë se është me interes për lexuesit e MSN.

Aplikacioni Microsoft News përfundoi i përmbytur me histori në lidhje me incidentin. Eshtë e qartë se redaktorët e mbetur njerëzorë nuk mund të lëvizin aq shpejt kundër homologut të tyre të automatizuar.

Përditësimi përfundimtar në temën e dystopisë së lajmeve: Aplikacioni i lajmeve artificiale nga inteligjenca artificiale e Microsoft tani është përmbledhur me histori të zgjedhura nga robot e lajmeve në lidhje me rikthimin e robotit të lajmeve.

Sipas Waterson, stafit njerëzor të shkarkuar së fundmi nga MSN u është thënë që të ndërpresin raportimin ndaj çfarë po bën AI.

AI dhe racizmi

Kjo nuk është hera e parë që një zgjidhje e mbështetur nga AI nga Microsoft ka rënë në zjarr për racizëm.

Një chatbot famëkeq në Twitter i zhvilluar nga Microsoft i quajtur Tay përfundoi duke folur vitriol racist dhe misogynistic në vitin 2016. Padyshim që chatbot nuk ishte krijuar për të qenë një personazh i tillë i pasigurt. Por Microsoft, mendoi se do të ishte një ide e mirë të lejohej interneti nga banorët për ta trajnuar atë.

Një nga shqetësimet më të ngutshme në këtë botë gjithnjë e më shumë drakoniane ku jetojmë është ajo e mbikëqyrjes masive dhe njohjes së fytyrës. Ndërsa IBM njoftoi këtë javë se nuk dëshiron asgjë më shumë me teknologjinë, Microsoft mbetet një lojtar kryesor.

Një eksperiment nga Algorithmic Justice League vitin e kaluar gjeti pabarazi midis performancës së algoritmeve të njohjes së fytyrës bazuar në gjininë dhe ngjyrën e lëkurës.

Algoritmi i Microsoft në të vërtetë performoi më mirë nga ata që testuan dhe menaxhuan një saktësi 100 përqind kur zbuluan meshkujt me lëkurë më të lehtë. Sidoqoftë, algoritmi ishte vetëm 79.2 përqind i saktë kur u përdor në femra me lëkurë më të errët.

Nëse ai version i sistemit të njohjes së fytyrës së Microsoft përdoret për mbikëqyrje, pothuajse dy në çdo dhjetë femra me lëkurë më të errët rrezikojnë të flamurohen rrejshëm. Në zona të ngarkuara, kjo mund të nënkuptojë qindra nëse jo mijëra njerëz që përballen me profilizim automatik çdo ditë.

Algoritmet në mënyrë ideale nuk do të kishin ndonjë paragjykim ose çështje. Gjithësesi të gjitha incidentet tregojnë saktësisht pse shumë njerëz pothuajse gjithmonë duhet të përfshihen në vendimet përfundimtare. Kështu, kur gjërat shkojnë keq, të paktën ka përgjegjësi ndaj një personi specifik sesa thjesht të fajësoni një gabim AI.

Postime te ngjashme