Kas AI-l võib olla eelarvamusi?

Autor: Laura McKinney
Loomise Kuupäev: 5 Aprill 2021
Värskenduse Kuupäev: 26 Juunis 2024
Anonim
Kas AI-l võib olla eelarvamusi? - Tehnoloogia
Kas AI-l võib olla eelarvamusi? - Tehnoloogia

Sisu


Ära võtma:

Viimastel aastatel on AI üha enam omaks võetud ja rakendatud kõigele alates ilu hindamisest kuni retsidivismi riski hindamiseni. Seejuures on ta kehtestanud standardid, mis toetavad mitmel juhul eelarvamusi ja diskrimineerimist.

Tehnoloogia arengul on potentsiaal tõeliselt demokratiseerida juurdepääsu teabele ja võimalustele. Kuid mõnel juhul kasutatakse seda viisil, mis tugevdab arusaama, et meie ühiskonnas on mõned inimesed teistest võrdsemad.

Seda nägime järgmistest seitsmest juhtumist, kus tehisintellekti kasutatakse teadlikult teatud kategooriate välistamiseks või milles see peegeldab lihtsalt inimprogrammeerijate poolt eelarvamusi diskrimineerivat mõju.

AI ilu eelarvamused

Ilu võib vaatajale silma jääda, kuid kui see subjektiivne vaade saab AI-d programmeerida, olete programmis kallutanud. Rachel Thomas teatas 2016. aastal ilupildilt beauty.ai ühest sellisest episoodist. Tulemused näitasid, et heledamad jume hinnati atraktiivsemaks kui tumedad.


Järgmisel aastal lõi FaceApp, mis kasutab fotode jaoks filtrite loomiseks närvivõrke, nn kuumafiltri, mis heledas inimeste nahka ja andis neile rohkem euroopalikke jooni. "

Keelte sooline eelarvamus

Thomas tsiteerib ka dokumenteeritud näidet tõlgetest, mis kannavad üle stereotüüpsed ootused karjääri suhtes. Lähtepunkt on kaks lauset: "Ta on arst. Ta on õde."

Kui tõlgiksite need türgi keelde ja tagasi inglise keelde, saaksite selliseid tulemusi, mida telefonimängust võis oodata.

Selle asemel, et alustada sellega, millega alustasite, saate 1950-ndate aastate ootuse: "Ta on arst. Ta on meditsiiniõde." Ta selgitab, et see tuleneb türgi keeles sooneutraalsest ainsusest, mis määrab soo ootustele ja stereotüüpsele eelarvamusele tuginedes. (Loe Naised AI-s: seksismi ja stereotüüpide tugevdamine tehnikaga.)


Ehkki piltideks ja keeleks filtreerimine rassiliste ja soolistes suhetes tekitab ärevust, pole need päris sama asi kui AI-st tulenev aktiivne diskrimineerimine, kuid ka see on juhtunud.

Selle tõestuseks oli ekraanipilt piirangutest, mis on reklaamidele seatud selle eluaseme kategooria all, mis võimaldas vaatajaskonda kitsendada, kontrollides selliste kategooriate välistamist nagu Aafrika-Ameerika, Aasia-Ameerika või Hispaanlased. Kuulutust saab vaadata siit.

Nagu ProPublica osutab, on selliste reklaamide diskrimineeriv mõju ebaseaduslik nii 1968. aasta õiglase eluaseme seaduse kui ka 1964. aasta kodanikuõiguste seaduse kohaselt. Ainuke kaitseks antud juhul oli see, et reklaam ei olnud mõeldud eluaseme enda jaoks, kuna see ei olnud „ t müüdava või üüritava kinnisvara või kodu kohta.

Siiski on olnud ka muid sihtmärke, mis osutavad rassilisele eelarvamusele ja mis on motiveerinud erinevaid üksusi tsiviilhagisid sotsiaalse võrgustiku vastu esitama. Nagu Wired teatas, otsustas ta viienda kohtuasja lahendamise tulemusel kohandada oma reklaamide sihtimise tehnikat lõpuks 2019. aasta märtsis reklaamide kaudu vähemuste diskrimineerimise võimaldamise eest.

ACLU tõi oma lahendi aruandes välja, kui salakavalad sellised suunatud reklaamid võivad olla, kuna vähemused ja naised ei pruugi isegi aru saada, et neile ei võimaldata võrdset juurdepääsu teabele, eluasemele ja töövõimalustele, mida jagatakse valgete meestega.

Kuna üha enam inimesi pöördub töö, korterite ja laenude otsimise poole Interneti poole, on olemas reaalne oht, et reklaami sihtimine kordab ja süvendab ühiskonnas juba olemasolevat rassilist ja soolist eelarvamust. Kujutage ette, kui tööandja otsustab masinaehitustööde reklaame näidata ainult meestele - mitte ainult kasutajad, keda ei tuvastata meestena, ei näe neid reklaame, vaid ei tea ka kunagi, mis neil puudu jäi.

Lõppude lõpuks on meil harva võimalus tuvastada reklaame, mida me võrgus ei näe. See, et selline diskrimineerimine on tõrjutud kasutaja jaoks nähtamatu, muudab selle peatamise veelgi raskemaks.

2. Sooline ja vanuseline diskrimineerimine töökohtades

Juriidiliste juhtumite hulgas oli lubamatu ebaseaduslik diskrimineerimine eluaseme valdkonnas. ProPublica ütles oma lahendi aruandes, et on seda platvormi testinud ja tal on õnnestunud osta „eluasemega seotud reklaame nendes tõrjutud rühmades nagu afroameeriklased ja juudid, ning varem leidis ta töökuulutusi, mis välistasid ettevõtete vanuse ja soo alusel kasutajad mis on leibkonna nimed. ”

ACLU leidis mitmeid töökuulutusi, mis olid selgesõnaliselt suunatud ainult teatud vanuserühmas olevatele meestele, kuna kasutajad said klõpsates vastuses küsimusele, miks neile seda konkreetset reklaami näidati, kajastatud teises Wired-artiklis. ACLU esitas võrdse tööhõive võimaluste komisjonile süüdistuse sotsiaalvõrgustiku ja reklaamide paigutanud ettevõtete vastu põhjendusega, et nad rikuvad nii töö- kui ka kodanikuõiguse seadusi.

Üle 40-aastaste inimeste palkamisel diskrimineerimine rikub föderaalset tööhõivealase vanuselise diskrimineerimise seadust (ADEA). Kuid töökuulutuste sihtimine ainult alla selle vanusele inimestele on üks platvormi võimalustest.

ProPublica pani selle tähelepanu keskpunkti ühes oma raportis, milles paljastati, millistes töökuulutustes võideti seda ebaseaduslikku tõrjutuse vormi vanuse järgi. Kodumajapidamise nimede hulka kuuluvad teiste seas Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Avalike huvide fond, Goldman Sach, OpenWorks ja ise.

Näotuvastuse ebaõnnestumine

Kui nägu on äratundmine täpne, kui olete valge mees, kuulutati välja 2018. aasta veebruaris avaldatud New York Timesi artikli pealkiri. Selles viidati tulemustele, mis leidsid selget seost nahatooni ja vigase tuvastamise vahel:

"Mida tumedam on nahk, seda rohkem vigu tekib - kuni 35% juhtudest tumedama nahaga naiste piltide jaoks, väidab uus uuring, mis murrab värske pinna, mõõtes, kuidas tehnoloogia töötab erineva rassi ja sooga inimestel."

Leiud krediteeritakse MIT Media Labi teadurile ja Algorithmic Justice League (AJL) asutajale Joy Buolamwinile. Tema uurimisvaldkond on AI aluseks olevad eelarvamused, mille tulemuseks on sellised vildakad tulemused, kui on vaja ära tunda nägusid, mis ei sobi mudelile seatud valge meessoost normiga.

Buolamwini esitas 2017. aasta TED-i vestluses näotuvastuse rassilise ja soolise eelarvamuse probleemi, millele ta viitas oma 2018. aasta alguses MIT Labi projektis The Gender Shades esitatud videos:

<

Video kirjelduses on öeldud, et kui jätta AI eelarvamused kontrollimata, "rikub see automatiseerimise vanust ja suurendab ebavõrdsust veelgi, kui jätta see vaevama". Riskid pole midagi muud kui "kodanikuõiguste liikumisest ja naiste liikumisest saadud kasu kaotamine masina neutraalsuse vale eelduse kohaselt".

Videokirjeldus lisab hoiatuse, millele paljud teised on nüüd tähelepanu juhtinud, nagu nägime ajakirjas Women in AI: Seksismi ja stereotüüpide tugevdamine tehnikaga: "Automatiseeritud süsteemid pole olemuselt neutraalsed. Need kajastavad prioriteete, eelistusi ja eelarvamusi - kodeeritud pilk - neist, kellel on võim tehisintellekti vormida. "

25. jaanuaril 2019 avaldas Buolamnwini keskmise postituse, mis tugines tema enda ja täiendavate teadlaste uuringutele, kes juhtisid tähelepanu sellele, kuidas AI-vead põhjustavad vigu Amazon's Recognitionis ja nõudsid, et ettevõte lõpetaks AI-teenuse müümise politseiosakondadele.

Kui tunnustamine võis kiidelda 100-protsendise täpsusega heledanahaliste meeste tuvastamisel ja 98,7-protsendise täpsusega isegi tumedamate meeste puhul, siis naiste puhul langes täpsus 92,9% -ni heledamate naiste puhul. Veelgi silmatorkavam oli järsk langus tumedamate naiste puhul vaid 68,6% täpsusele.

Kuid Amazon keeldus järeleandmisest. Venture Beat'i artiklis tsiteeriti AWS-i süvaõppe ja AI üldjuhi dr Matt Woodi avaldust, milles ta rõhutas, et teadlaste leiud ei kajasta AI tegelikku kasutamist, selgitades:

“Näo analüüs ja näotuvastus on täiesti erinevad nii aluseks oleva tehnoloogia kui ka nende koolitamiseks kasutatavate andmete osas. Näotuvastuse täpsuse mõõtmiseks näoanalüüsi proovimine on soovitatav, kuna see pole selleks ette nähtud algoritm. ”

Kuid mitte ainult suuremate uurimiskeskustega seotud ettevõtted, kes on leidnud, et algoritmid on väga probleemsed. Gizmodo raporti kohaselt korraldas ACLU oma testi kõige mõistlikuma hinnaga 12,33 dollarit. Selles leiti, et Rekognition sobitas 28 Kongressi liiget kurjategijate fotodega.

"Valed identifitseerimised tehti siis, kui Põhja-California ACLU tegi ülesandeks Rekognition koos kõigi 535 Kongressi liikme fotodega 25 000 avalikult kättesaadava pildi kohta."

Kuna 28-st 11 olid värvilised, peegeldas see nende jaoks olulist 39% -list veamäära. Seevastu veamäär tervikuna oli vastuvõetavam 5%. Kuus Kongressi Musta Kaukause liiget, kes kuulusid nende piltide hulka löödud tunnustuse hulka, väljendasid oma muret avalikus kirjas Amazoni tegevjuhile.

Korduvkuritegevuse eelarvamused

AI-sse manustatud erapoolikkus värviliste inimeste suhtes muutub tõsisemaks probleemiks, kui see tähendab enamat kui lihtsalt viga tuvastamisel. See oli 2016. aastal veel ühe ProPublica uurimise tulemus. Sellise kallutatuse tagajärjed pole muud kui individuaalne vabadus koos tegeliku riski eiramisega inimeselt, kelle nahavärvi algoritm soosib.

Artiklis viidati kahele paralleelsele juhtumile, milles osales üks valge vägivallatseja ja üks must. Selle ennustamiseks kasutati algoritmi, mis tõenäoliselt rikub uuesti seadust. Musta hinnati kõrgeks ja valget madalaks.

Ennustus läks täiesti valesti ja vabaks läinud valge tuli uuesti vangistada. See on äärmiselt problemaatiline, kuna kohtud tuginevad tingimisi otsuse tegemisel punktisummale ja see tähendab, et programmis arvestatud rassiline eelarvamus tähendab seaduse alusel ebavõrdset kohtlemist.

ProPublica pani algoritmi enda proovile, võrreldes 2013. ja 2014. aastal Floridas Browardi maakonnas arreteeritud enam kui 7000 inimese riskiskoori arvuga, kelle suhtes neile järgneva kahe aasta jooksul esitati uued kriminaalsüüdistused.

Nad leidsid, et kõigest 20% vägivaldse iseloomuga kuritegude kordamise ennustustest sai tõeks ja vähem kergeid kuritegusid tehti ainult 61% riskirühma näitajatest.

Tegelik probleem pole mitte ainult täpsuse puudumine, vaid ka sellega seotud rassiline eelarvamused:

  • Eriti valesti märgistas see valem mustanahalisi süüdistatavaid tulevaste kurjategijatena, märgistades nad sel viisil valgete süüdistatavatena peaaegu kaks korda kõrgemalt.
  • Valgeid süüdistatavaid peeti eksitavalt madala riskiga kui musta süüdistatavaid.

Tegelikult tähendas see mustanahaliste ja 24% valgete inimeste veamääraks. Vaatamata sellele silmatorkavale statistikale teatas Thomas, et Wisconsini ülemkohus toetas selle algoritmi kasutamist endiselt. Ta kirjeldab ka muid retsidivismi algoritmidega seotud probleeme.