algoritmit – Kapitaali.com / Pääoma ja Uusi Talous Sun, 25 Aug 2019 11:11:10 +0000 fi hourly 1 https://wordpress.org/?v=6.8.3 /wp-content/uploads/2024/12/cropped-cropped-cropped-18293552513_de7ab652c7_b_ATM-1-32x32.jpg algoritmit – Kapitaali.com / 32 32 Systeemiset algoritmiset haitat /systeemiset-algoritmiset-haitat/ /systeemiset-algoritmiset-haitat/#respond Sun, 25 Aug 2019 11:11:10 +0000 http://kapitaali.com/?p=1565

Miksi on paljon todennäköisempää kuulla “algoritmisesta vinoumasta” kuin “algoritmisesta rasismista” tai “algoritmisesta seksismistä” jopa silloinkin kun me tarkoitamme jälkimmäisiä? “Bias” on viimeisin kappale edelleen avautuvassa sosiaalipsykologian historiassa, joka on kamppaillut vastatakseen kysymykseen miksi rasismi ja muut alistavat järjestelmät ovat edelleen olemassa. Viimeaikaisessa historiallisessa katsauksessa tähän diskurssiin Dovidio et. al. (2010) kuvaavat sitä miten termi “bias” syntyy akateemisesta kirjallisuudesta. He aloittavat Walter Lippmannista, joka kirjassaan Public Opinion (1922), popularisoi termin “stereotyyppi” sen modernissa merkityksessä tarkoittamaan henkilön mielipidettä ryhmästä ihmisiä.

Tarkastelemalla sitä miten Lippmannin “stereotyyppi” otetaan teoreettisena terminä sosiaalipsykologiassa, joka johtaa nykyaikaisiin teorioihin “biasista”, me voimme paremmin ymmärtää termin “bias” käytön rajoitteita nykypäivän keskusteluissa algoritmien haitoista. Koska sekä “stereotyppi” että “bias” ovat teorioita yksilöllisestä havainnoinnista, keskustelumme eivät tarpeeksi priorisoi rakentamiemme teknologioiden systeemisten haittojen nimeämistä ja paikallistamista. Kun me lakkaamme ylikäyttämästä sanaa “bias”, me alamme käyttää kieltä joka on suunniteltu teoretisoimaan rakenteellisen alistamisen tasolla, sekä haitan laajuuden identifioinnin suhteen että sen kuka sitä kokee.

Kun me lakkaamme ylikäyttämästä sanaa “bias”, me alamme käyttää kieltä joka on suunniteltu teoretisoimaan rakenteellisen alistamisen tasolla.

Ymmärtääkseen yhteiskunnallisten jakautumisten syitä hänen aikansa yhteiskunnassa, Lippmannin piti tarjota selitys sille miksi henkilöt pitivät kiinni kokonaisia ryhmiä koskevista yleistyksistä, jopa silloinkin kun ne olivat haitallisia yhteiskunnalliselle harmonialle. Hän selkeästi kritisoi stereotyyppejä, ja määritteli ne “vääristyneeksi kuvaksi henkilön mielessä, joka ei perustu henkilökohtaiseen kokemukseen, vaan joka on johdettu kulttuurillisesti.” Hänen konseptinsa pysyy uskollisesti sosiaalipsykologian, journalismin ja politiikan tieteen kirjallisuuden lainauksissa, erityisesti koska nämä alat vastaavat moniin yhteiskunnallisiin ongelmiin ajan mittaan. Kirjassa The Nature of Prejudice (1945), sosiaalipsykologi Gordon Allport kuuluisalla tavalla esittää, että meillä on stereotyyppejä joilla ratinalisoida käyttäytymistämme jotain kohtaan tietyssä kategoriassa. Eräs määritelmä nykyajan psykologian kirjallisuudessa kuuluu, että stereotyypit ovat vaikutelmia jotka jäävät muuttumattomiksi, jopa silloin kun uutta relevanttia informaatiota johtopäätökselle esitettäisiin.

Nykyään sosiaalisen ja kognitiivisen psykologian kirjallisuudessa bias kuvataan joksikin joka on implisiittinen ja väistämätön ajatusprosesseillemme meidän kategorisoidessa ympärillä olevaa maailmaamme. Stereotyyppi, täten, on perustavanlaatuinen komponentti sosiaalipsykologian pyrkimyksessä teoretisoida sitä miksi ihmiset käyttäytyvät kaikenlaisilla tavoilla, jotka sallivat yhteiskunnallisten hierarkioiden pysyä.

Ottaen huomioon tämän historian, kun me sanomme “algoritmi on biasoitunut”, me jollain tavalla kohtelemme algoritmia kuin se olisi viallinen yksilö, sen sijaan että se olisi institutionaalinen voima. Kehityksessä “stereotyypista” “biasiin” me kätevästi olemme tiputtaneet “stereotyypin” negatiivisen konnotaation Lippmannin alkuperäisestä määritelmästä. Me olemme pitäneet tallessa konseptin pakoon pääsemättömästä mentalisoivasta prosessista yksilön kokemuksen merkityksenannon prosessissa, erityisesti kun kohtaamme pelkoa tai epävarmuutta — kuitenkin algoritmit toimivat instituutioiden tasolla. Algoritmeja otetaan käyttöön kouluissa, yrityksissä ja valtioissa teknologian mukana, ja ne vaikuttavat yhteiskunnallisiin, poliittisiin ja taloudellisiin järjestelmiimme. Käyttämällä vinoutumisen kieltä me saatamme päätyä keskittymään liikaa yksilön aikeisiin, sen sijaan että me keskittyisimme niiden instituutioiden rakenteelliseen valtaan jossa ne toimivat.

Käyttämällä vinoutumisen kieltä me saatamme päätyä keskittymään liikaa teknologiankäyttäjien aikeisiin, sen sijaan että me keskittyisimme niiden instituutioiden rakenteelliseen valtaan jossa ne toimivat.

Itse asiassa Lippmann tunnustaa, että stereotyypit ovat “kulttuurista johdettuja”, mutta hän ei sitoudu todella teoretisoimaan kulttuurin ja instituutioiden roolista, vankasti pitäen analyysinsä tason henkilön havainnoissa. On mahdollista nähdä miten “bias” kärsii samanlaisesta teoreettisesta vajauksesta kuin, esimerkiksi, yritettäessä identifioida “algoritmien rotuvinoumaa”. Vuonna 1967, Kwame Ture (Stokely Carmichael) ja Charles V. Hamilton ottivat käyttöön termin “institutionaalinen rasismi” viittaamaan hyväksyttyihin status quon yhteiskunnallisiin ja poliittisiin instituutioihin, jotka tuottavat rodullisesti hajanaisia tuloksia. Jos algoritmit toimivat instituutioiden tasolla, silloin ne pakottavat institutionaalisen rasismin politiikkaa rakenteellisesti rasistisessa yhteiskunnassa.

Kuten Camara Phyllis Jones esittää, rotua tulisi käsitellä viitekehyksessä, jossa on mikro- (yksilöllinen), meso- (institutionaalinen) ja makro- (systeeminen) analyysitaso. Bias terminä sekoittaa enemmän kuin selittää, koska me emme ole yhtä kiinnostuneita kaikista vinoumista samoista syistä. Me erityisesti emme kiinnostu algoritmisen vinouman purkamisesta, joka jatkaa haitantekoa niille jotka kuuluvat yhteen tai useampaan historiallisesti alistettuun yhteiskunnan identiteettiryhmään.

Kun me käytämme “vinoumaa” algoritmien aikaansaamista eriarvoisuuksista puhumiseen, me olemme, niinkuin Lippmann, sitomassa analyysimme yksilötasolle — mutta “bias”-teoriat yksin eivät auta meitä kritisoimaan laajemmin sosio-teknisiä systeemejä. Mahdollisesti koska me vaadimme käyttää biasia lähtökohtana teknologiakriittisissä keskusteluissa, me olemme olleet hitaita hyväksymään Safiya Noblemin määritelmää “alistamisesta” teknologioiden vaikutuksesta. Mitä tapahtuisi jos me lainaisimme Kwame Turea ja Charles V. Hamiltonia yhtä uskollisesti kuin me teemme Walter Lippmannin kanssa teoreettisten viitekehyksien rakentamisessa?

Vain siirtymä institutionaalisesti keskittyneeseen kieleen tekee tilaa systeemikritiikille, sallii meidän nähdä selkeämmin se mikä on vaarassa kun me puhumme tulevista meidän rakentamien teknologioiden riskeistä, sekä identifioida ketkä erityisesti kokevat haitallisia jälkiseuraamuksia teknologiasta, huolimatta siitä miten hyvää tarkoittavia transhumanistit ovat. Ja kun me selkeästi nimeämme ongelman, ainoastaan silloin voimme me pitää niitä vastuussa ongelman ratkaisemiseksi.


Kinjal Dave on Media Manipulation Initiativen analyytikko Data & Societyssa.

Lähde: points.datasociety.net

]]>
/systeemiset-algoritmiset-haitat/feed/ 0
Algoritminen epäoikeudenmukaisuus /algoritminen-epaoikeudenmukaisuus/ /algoritminen-epaoikeudenmukaisuus/#respond Fri, 23 Jun 2017 11:11:52 +0000 http://kapitaali.com/?p=856 Lue lisää ...]]> Kirjoittanut David Casacuberta

14. maaliskuuta 2017

Keinoäly on tehnyt mahdolliseksi automatisoida päätökset joista ihmisolennot ovat tähän asti olleet vastuussa. Vaikka monet näistä päätöksistä tehdään viihteen ja sosiaalisen medioiden aloilla, automatisoitu päätöksenteko on käytössä myös rahoituksen, koulutuksen, työmarkkinoiden, vakuuttamisen, lääketieteen ja oikeustieteen aloilla. Tällä ilmiöllä on kauaskantoiset yhteiskunnalliset seuraukset, ja se herättää monenlaisia kysymyksiä, esim. ”mitä tapahtuu työpaikoille jotka huolehtivat näiden päätösten tekemisestä aiemmin” ja ”kuinka me takaamme että nuo algoritmit tekevät reiluja päätöksiä?”

Mary Bollender on rahan kanssa kamppaileva yksinhuoltajaäiti Las Vegasista. Yhtenä aamuna vuonna 2014, kun hänen kymmenvuotias tyttärensä oli kuumeessa joka ei mennyt pois, Mary päätti viedä hänet päivystykseen. Mutta kun he pääsivät autoon, se ei suostunut käynnistymään. Ongelma ei ollut moottorissa tai tyhjässä tankissa: pankki oli etänä aktivoinut laitteen joka esti hänen autoaan käynnistymästä koska hänen autolainansa lyhennys oli kolme päivää myöhässä. Heti kun hän maksaisi sen, hänen autonsa lähtisi liikkeelle. Valitettavasti hänellä ei ollut tuona aamuna rahaa.

Yhteiskuntamme jatkaa monimutkaisemmaksi muuttumistaan, datan digitalisoinnin laajentuessa massiivisesti. Mary Bollenderin kaltaiset tapaukset tulevat yhä yleisemmäksi: automatisoidut päätökset, jotka perustuvat systemaattisen henkilökohtaisen datan keräämiseen, millä on mahdollisesti negatiivinen vaikutus elämiimme. Algoritmit kontrolloivat sitä ketkä ystävistämme näkevät ensimmäisenä postauksen Facebookin uutisvirrassa ja suosittelevat elokuvia joita saattaisimme katsoa Netflixissä, mutta algoritmit päättävät myös antaako pankki meille lainan, voidaanko joku oikeuskäsittelyä odottava päästää vapaaksi takuita vastaan, ansaitsemmeko tohtoriväitösstipendin ja olemmeko sen arvoisia että tulisimme yrityksen palkkaamaksi.

Nämä tietokoneohjelmat tai algoritmit eivät ole tehty niin, että ihmis-ohjelmoijat analysoivat ja ratkaisevat ongelmia ja sitten syöttävät ohjeet tietokoneelle. Ne ovat monimutkaisten matemaattisten operaatioiden hedelmää, jotka etsivät digitoidun datan merestä kuvioita. Ne eivät ole niinkuin resepti joka esittää listan aineita ja sitten kertoo meille mitä tehdä niillä askel askeleelta. Kyse on enemmänkin tapauksesta ”avaa jääkaappi, katso mitä siellä on, pyöri keittiössä ja etsi kattiloita joita voit käyttää, ja tee sen jälkeen minulle illallinen kuudeksi.” Tämän tyypin algoritmit jotka eivät ole eksplisiittisesti ohjelmoijan suunnittelemia sijoittuvat ”koneoppimisen” konseptin alle.

Koneoppivia algoritmeja tällä hetkellä käytetään datan prosessointiin ja määrittämään kykeneekö henkilö maksamaan lainan takaisin. Henkilö, joka ohjelmoi algoritmin, kasaa tietokannan ihmisistä jotka ovat pyytäneet aiemmin lainaa, johon kuuluu kaikenlaista muutakin dataa: hakijan ikä ja sukupuoli, maksoivatko he summan kokonaisuudessaan takaisin, oliko heillä ja kuinka paljon myöhästyneitä takaisinmaksuja, keskimääräinen palkka, kuinka paljon veroa he maksoivat, missä kaupungissa ja kaupunginosassa he asuvat, ja niin edelleen. Algoritmi käyttää tilastollisia kaavoja kaikkeen tähän dataan ja sen jälkeen generoi kuvioita jotka estimoivat todennäköisyyden sille, että uusi potentiaalinen asiakas maksaa lainan takaisin. Luotettavuus on usein ainoa kriteeri jota käytetään näiden algoritmien kehittämiseen. Onko ohjelma tarpeeksi tarkka korvaamaan ihmisen? Jos vastaus on kyllä, sille näytetään vihreää valoa.

What’s an algorithm? | David J. Malan | Ted Ed

Ei ole helppoa määrittää luotettavuutta. Todella luotettavan algoritmin kehittäminen on osittain tiedettä ja osittain taidetta. Kun me mietimme tietokoneohjelmia tai tekoälyä, me väistämättä tuppaamme inhimillistämään ja kuvittelemaan jonkinlaisen olennon, joka käyttäytyy mentaalisten prosessien mukaan samalla tavoin kuin me itse. Mutta se ei ole miten homma toimii. Automatisoitu algoritmi ei analysoi esimerkkejä jotka me sille annamme ja sitten yritä saada aikaan jonkinlaista kausaalista linkkiä datan ja lopputuloksen välillä. Algoritmi itsessään ei tiedä mitään sukupuolesta, iästä, rahoitustilanteesta, työttömyydestä jne. Se yksinkertaisesti on sarja numeroita ja se yrittää löytää kuvioita jotka sallivat sen keksiä oikean tuloksen niin usein kuin mahdollista.

Ja tämä on se missä ongelmat tulevat mukaan. Perinteinen ihmisen kehittämä ohjelma seuraa tiettyä logiikkaa, joten on mahdollista ymmärtää mitä se tekee. Automatisoitu algoritmi on kuin musta laatikko. Me annamme sille tiettyä syötettä (lainanhakijan henkilötiedot) ja se antaa tietyn ulostulon (todennäköisyys että henkilö maksaa lainan takaisin). On erittäin vaikeaa — tai lähes mahdotonta — tietää miksi ohjelma päätti hylätä tai hyväksyä tietyn lainahakemuksen.

1980-luvulla USA:n armeija antoi toimeksiannon tiedemiehille kehittää automaattinen kuvantunnistusohjelma joka voisi havaita naamioituja tankkeja reaaliaikaisesti. Tiedemiehet pyysiivät armeijan upseereita tarjoamaan useita valokuvia eri kohteista joka oli järjestetty pareiksi: toisessa näkyy kohde ilman tankkia ja toisessa näkyy sama kohde puskiin naamioitu tankki vierellä. Idea oli kehittää algoritmi joka keksisi sarjan kriteereitä tankkien havaitsemiselle. Ohjelma toimi huomionarvoisen hyvin.

Se oli sataprosenttisen oikeassa. Itse asiassa, se havaitsi tankkeja, jotka olivat niin hyvin naamioituneita että ihmisetkään eivät niitä kyenneet havaitsemaan. Tutkijat olivat niin yllättyneitä, että he päättivät analysoida mitä kriteerejä algoritmi käytti. Syväluotaavan valokuvien ja algoritmin analysoinnin jälkeen he tajusivat, että ohjelma ei itse asiassa tunnistanut tankkeja tai edes mitään sinne päin. Oletetaan että armeija oli ottanut valokuvia paikoista ilman tankkia keskipäivällä. Valokuvat, joissa naamioitu tankki oli, oli otettu kuudelta iltapäivällä. Joten jotta päätettäisiin oliko kuvassa tankki, ainoa mitä algoritmin tuli tehdä, oli tarkastella auringon sijaintia.

Toinen esimerkki on itseohjautuvat autot. Me haluaisimme kuvitella että autoa ajavilla algoritmeilla on jonkinlainen idea tien, liikennevalojen, suojatien, pyöräilijän, toisen auton jne jne ideasta. Mutta todellisuudessa ne ovat vain kehittyneitä versioita tankin havaitsevasta algoritmista. Niiden oppimiskyky on erittäin kontekstiriippuvaista ja riippuu täysin sen ympäristön vasteesta, jossa algoritmia on opetettu. Ja koska ne ovat mustia laatikoita, me emme koskaan voi tietää varmasti miten itseään ajava auto reagoi kontekstissa joka on merkittävästi erilainen kuin se jossa sitä alunperin on opetettu.

Kun annetaan tarpeeksi opetusta erilaisissa konteksteissa, me voimme keksiä algoritmeja jotka ovat todella robusteja ja luotettavia. Muta silti on vieläkin salakavalampi ongelma: oikeudenmukaisuus, tai reiluus. Ottaen huomioon että puhumme ohjelmista jotka tunnistavat kontekstuaalisia kuvioita rajoitetussa datajoukossa, ja jotka eivät perustu oikeaan tietoon ympäristöstä, yksikään algoritmi ei koskaan voisi harkita aktivoivansa Mary Bollenderin autoa jotta hän voisi ajaa tyttärensä sairaalaan. Se vain tietää kuka maksaa lainanlyhennyksensä ja kuka ei. Köyhillä alueilla ei ole paljon korkeampi velkatappiosuhde. Suuri prosenttiosuus yksinhuoltajaäideistä maksaa asuntolainan ja muiden lainojen lyhennyksiään myöhässä. Automatisoitu algoritmi epäilemättä hylkäisi yksinhuoltajaäidin lainahakemuksen köyhästä kaupunginosasta. Päätös olisi epäilemättä tilastollisesti oikea. Mutta olisiko se reilu? Haluammeko elää maailmassa jossa elämän kriittiset päätökset perustuvat kontekstiriippuviin tilastollisiin malleihin?

Koneoppimisen algoritmit, joita tällä hetkellä kehitetään, tarvitsevat humaanisuutta. Meidän tulee rakentaa infrastruktuureja yhteistyölle softakehittäjien ja humanistien välillä. Meidän tarvitsee kehittää yhteinen kieli jolla sosiologit, antropologit, filosofit ja taiteilijat voivat ymmärtää tällaisen uudenlaisen softan perustoimintoja, ja tietokoneinsinöörien ajatella sitä miten sisällyttää etiikka, rauhallinen yhteiselo, oikeudenmukaisuus ja solidaarisuus uuteen softaan. Ehkä jonain päivänä meidän onnistuu kehittää keinotekoinen superäly josta Elon Musk on niin innoissaan. Mutta tällä hetkellä meidän tulee olla enemmän huolestuneita siitä kuinka olemassaolevat ohjelmat voivat kasvattaa rasistisia, ksenofobisia ja seksistisiä vinoumia joita yhteiskunnassamme esiintyy.

 

Lähde:

http://lab.cccb.org/en/algorithmic-injustice/

 

]]>
/algoritminen-epaoikeudenmukaisuus/feed/ 0