Slik kan algortimene håndteres

Algoritmene styrer viktige deler av forvaltningen. Blant annet hvis vi har skrevet opp mange avdrag på skatten. Da kan vi plukkes ut av en algoritme som sier vi skal kontrolleres.

Hvordan myndigheter skal håndtere disse algoritmene er et dilemema, men noen forskere har gode og konkrete forslag. Forslagene handler om at flere gode krefter må trekke sammen, det holder ikke med enkelt-løsninger.

Skjult logikk

Den nederlandske forskeren Madalene Busuioc er først og fremst svært skeptisk til såkalte black-box algorItmer, det vil si algortimer som skjuler sin interne logikk for brukerne. Mange algoritmer i sosiale medier vil falle inn i denne kategorien, det samme vil Skattedirektoratets algoritme som plukker ut hvilke selvangivelser som skal kontrolleres nærmere. Vi vet litt om dette, men ikke på langt nær nok. Mer om dette senere.

En av grunnene til at blackbox algoritmer med kunstig intelligens- kapasitet er uakseptable for offentlig forvaltning, er ifølge Busuioc at de lærer seg selv underveis i arbeidet. Og denne læringen er ikke nødvendigvis forståelig for mennesker.

For Busuioc ikke åpenhet om algoritmene nok. Det må en samlet innsats fra systemartkitekter som forklarer sine modeller, fra dataforskere som  utvikler modeller som er forståelige og tolkbare, fra teknoselskapene som må innføre slike modeller.

Hun mener at regulering er sterkt etterspurt på dette feltet, og at slik regulering må inneholde flere elementer:

  • sertifiseringsordninger for algoritme-modeller
  • tredjepart uavhengig testing av modellenes prestasjoner
  • modeller som etterlater spor av egen aktivitet som det er mulig å inspisere
  • konsekvensutredninger før offentlig bruk av algoritmene.

Uvisshet om skatt

Disse kravene er på langt nær oppfylt i det som for tiden utredes i Norge. Finansdepartementet har i flere år utredet et forslag til regelverk for blant annet skatteetatens algortimer.

Skatteetaten beskriver sine algortimer slik:

“Vi har testet om lag 500 ulike variabler som sier noe om skattyters demografi, hendelser i livet og øvrige opplysninger i selvangivelsen de har levert. I den endelige modellen har vi  med 30 variabler. Det er blant annet opplysninger om bruk avfradragsposter i år og i fjor, alder, økonomiske forhold som inntekt og formue og opplysninger knyttet til enkelte poster. Når vi bygger modellen på denne måten, vet vi ikke nødvendigvis hva det er som gjør at en bestemt skattyter blir rangert til å ha stor risiko for feil. Rangeringen er et resultat av komplekse sammensetninger av dataene i modellen”  (Anders Berset, Per Arne Paulsen, Shahrukh Hussain: Analysenytt 1/2016 Skatteetaten.)

Skatteetatens egne fagfolk beskriver et system som er en bekreftelse på Busioics vurdering av blackbox algortimer. “Vi vet ikke nødvendigvis hva det er som gjør at en bestemt skattyter blir rangert til å ha stor risiko for feil. Rangeringen er et resultat av komplekse sammensetninger av dataene i modellen. ”

De vet ikke. Fordi modellene er for komplekse.

Nye regler

Arbeidet med nye regler på dette området har foregått siden 2018, da Finansdepartementet sendte ut et forslag til regelverk om informasjonsbehandling i Skatteetaten. I høringsnotatet beskriver FIN utfordringene ved skattedirektoratets prediktive algoritmer som begrenset til:

  • Må ta hensyn til personvernforordningen
  • Krav om nødvendighet
  • Det er kun sammenstilling av opplysninger
  • Er opplysninger som er i samsvar med formålet de er innhentet for; kontroll med skattefastsettingen.
  • Prediktive modeller er bare kvalifiserte antagelser

Dette er på bakgrunn av disse punktene departementet mener slike modeller må utvikles og brukes.

I Regjeringens strategi for kunstig intelligens (2020) legges det opp til at utviklingen på dette feltet skal basere seg på syv prinsipper som er hentet fra EUs retningslinjer. Disse er blant annet menneskelig kontroll, personvern, teknisk robusthet, gjennomsiktighet, inkludering og mangfold, samfunnsnytte og ansvarlighet. I punktet om ansvarlighet heter det at algortimene skal være sporbare, forklarbare og gjennomsiktige. Busuioc`artikkel beskriver et langt større system, med sertifiseringsordninger, tredjepartstestinger og konsekvensutredninger. Hva skjer med disse kontroll-elementene når et direktorat utvikler sine egne algoritmer?

Kilde: Madalina Busuioc: Accountable Artificial Intelligence: Holding Algorithms to Account. Public Administration Review, Volume 81, Issue 5 September/October 2021

 

 

Foto: Adobe Stock