-
Ledelse

Tre trinn for å håndtere omdømmerisiko fra kunstig intelligens

Alexander Buhmann, Christian Fieseler

Selskaper og andre organisasjoner delegerer i økende grad vurderinger og avgjørelser til algoritmer. Dette fører til omdømmerisiko fordi det ofte er uklart hvordan systemene fungerer.

Det blir stadig vanligere i flere ulike bransjer å benytte algoritmer for å foreta vurderinger og ta avgjørelser. Dette medfører ulike former for risiko knyttet til omdømme. Disse kan deles inn i tre hovedkategorier:

Evidence concerns Outcome concerns Opacity concerns
Algorithms may entail inconclusive, inscrutable and/or misguided evidence. Algorithms may generate unfair, biased, or factually incorrect outcomes. Complex decision-making systems based on algorithms pose fundamental challenges to transparency.

Evidens-risiko

Det er ofte uklart hvilke data algoritmer bruker for å komme frem til avgjørelser. De kalkulerer sannsynlighet og foretar ‘best guesses’ basert på data som kan være feilaktig eller forutinntatt.

Et eksempel er helse-systemet utviklet av ‘Aspire Health’ (med finansiering fra Google), som brukes for å vurdere hvor vellykket en behandling vil være, og hvor sannsynlig det er at pasienten overlever. Slike systemer bruker informasjon om behandlingstyper, pasientdiagnoser og sammenlignbare mønstre over vanlige behandlinger. De kan imidlertid overse viktige faktorer som det er vanskelig å telle, slik om en pasients vilje til å overleve.

Resultat-risiko

Algoritmer kan produsere urettferdige, forutinntatte eller feilaktige resultater. Det har for eksempel vært eksempler hvor de har diskriminert mot visse grupper. Det er ikke vanskelige å forestille seg konsekvensene av systematisk diskriminering i et automatisert arbeids- og velferdssystem lik det som er under utvikling i Storbritannia.

Likeledes er det mange nyhetsbyråer som bruker algoritmer til å produsere f.eks. finansnyheter. Børsdata oversettes automatisk til tekst uten behov for menneskelig input eller overvåkning. En feil her vil åpenbart kunne få enorme konsekvenser for aksjehandel, og ikke minst for det aktuelle nyhetsbyrået.

Transparens-risiko

Etter hvert som algoritmer blir mer komplekse er det mye som tyder på at krav om transparens er dømt til å mislykkes. Delvis fordi algoritmer utvikles og eies av selskaper som vil beholde og øke sin konkurransekraft, men også fordi de opererer på en måte som gjør at det i praksis kan være nesten umulig å forstå dem.

For å forstå en algoritme må du forstå problemet den er utviklet for å løse. Såkalte ‘deep-learning’ algoritmer er ikke programmert av mennesker etter forståelige regler, men læres kontinuerlig opp av datamaskiner som følger egenproduserte regler i konstant endring. Slike systemer kan kun forstås ved å se hvordan de fungerer i praksis, ikke ved å lese koden deres.

Tre trinn for håndtering av omdømmerisiko:

  1. Inkluder alle interessenter.
    Det er avgjørende å inkludere selv dem som kanskje ikke er klare over at algoritmer påvirker dem. Å bidra til oppmerksomhet rundt bruk av algoritmer er viktigere enn å tilby informasjon som det kanskje er umulig å forstå. Det vil være svært vanskelig å sørge for at ansvarlighet ivaretas om ikke alle påvirkede er i stand til å delta i samtalen.
  2. Sett interessentene i stand til å forstå tematikken.
    Som nevnt over er det ikke slik at man nødvendigvis kan forstå en algoritme selv om man kan se koden. Det finnes imidlertid noen nyttige verktøy som kan brukes til gjøre operasjonene til algoritmer mer forståelige. Databaser over eksperimenter kan muliggjøre sammenligninger mellom algoritmer, og forenklede modeller (flytskjemaer) kan gjøre dem forståelige for mennesker samtidig som de tydeliggjør ting som ikke kan forstås.
  3. Påse at debatten er kontinuerlig.
    Flere nyhetsbyråer inkludert Buzzfeed og New York Times deler fortløpende noen av dataene og koden de bruker for datadrevne artikler. Fordi komplekse algoritmer alltid er i endring må samtalen være kontinuerlig og ikke bare finne sted på utvalgte tidspunkter. Trege sertifiseringsprosesser vil f.eks. ikke være i stand til å holde tritt med dette. Møteplasser for data-ansvarlighet blir viktigere og viktigere for kontakten mellom selskaper og deres omgivelser.

Referanse

Artikkelen ble først publisert på Kommunikasjonsforeningens nettsider.

Kilde: Buhmann, A., Paßmann, J. & Fieseler, C. J Bus Ethics (2019). https://doi.org/10.1007/s10551-019-04226-4.

Tekst: Teksten er oversatt av kommunikasjonsrådgiver, Knut Myrom Næss.

Publisert 14. januar 2020

Du kan også se alle nyheter her.