Hvem skal føre tilsyn med robotterne?

Infrastruktur

14/07/2019 07:00

Per Roholt

Flere og flere kommuner skifter den menneskelige sagsbehandler ud med en sagsbehandlerrobot, der kan klare hele eller dele af sagsbehandlingen. Og det rejser nye spørgsmål.

Desværre. Det blev et afslag. Sådan lyder beskeden i et brev fra kommunen. Men hvad gør man, når afgørelsen er truffet af en robot, der selv har sendt brevet som mail, uberørt af menneskehånd?

Hvordan fører vi i fremtiden tilsyn med de robotter, der bliver mere og mere almindelige på de offentlige kontorer?

Bias indstøbt i algoritmerne

En af de vigtigste årsager til, at vi skal kunne føre tilsyn med robotterne og have indsigt i, hvordan robotternes algoritmer fungerer, er, at vi skal undgå at reproducere forskelsbehandling.

Når man arbejder med kunstig intelligens og machine learning, er bias den store udfordring, idet kunstig intelligens finder mønstre i fortidens afgørelser med henblik på at lave beslutningsregler.

På den måde er der stor risiko for, at fortidens fejltagelser bliver støbt ind i algoritmerne, så fortidens synder bliver til fremtidens regler. Derfor er det vigtigt, at de datasæt, som algoritmerne skal trænes med, er renset og udarbejdet efter gode matematiske og statistiske procedurer, hvor bias er reduceret, og fejl luget ud.

Det vil fx være katastrofalt, hvis en robot lærer, at en særlig type plet på et røntgenbillede ikke er kræft, for så vil den blive ved med at ignorere oplysningen, når den stiller diagnoser i fremtiden. Vi skal gøre alt for at undgå den form for bias, der vil føre til farlige diagnoser eller usaglige afgørelser.

Læs artikel på SamfundsDesign: Få så sat de robotter i gang med arbejdet

Tilsyn med robotter

I fremtiden skal vi derfor være opmærksomme på, både hvad robotterne gør, og hvordan de gør det.

Endnu er det dog ikke afgjort, hvordan man reelt skal føre tilsyn med de robotter, som kan varetage hele eller dele af sagsbehandlingen.

Lige nu forskes der blandt andet i, hvordan man skal skabe transparens i de logikker, som softwarerobotter og AI arbejder med. Hvordan skal man holde en algoritme ansvarlig? Hvad er det, Datatilsynet skal kontrollere hos det offentlige for at få at vide, hvad der foregår inde i maven på dyret?

Hvis kommunens sagsbehandler ikke kan svare, har man et stort problem. For borgeren har krav på at vide, hvordan sagsbehandleren kom fra a til b og traf sin beslutning.

Læs artikel på SamfundsDesign: Erstatningsansvar: Er vi klar til robotterne?

Mindst to veje til indsigt

Når man skal skaffe sig indsigt i og kontrollere, hvordan de enkelte softwarerobotter arbejder, er der flere muligheder.

En mulighed er at få certificeret robotterne på forhånd, som der er åbnet mulighed for i databeskyttelsesforordningen. Endnu er man dog ikke enige om, hvordan en sådan certificering i praksis skal ske.

En anden mulighed er qua princippet om privacy by design at få udviklet algoritmer, der er i stand til selv at forklare, hvordan de er nået frem til afgørelsen. Uanset hvordan løsningen bliver, skal der findes en løsning.

Lige nu er det offentlige optaget af robotter, fordi de giver en administrativ besparelse og øger effektiviteten. Men får vi støbt fejl ind i algoritmerne, vil fejlene blive reproduceret meget hurtigt, og så står man med en masse sager, som skal omgøres – måske med store menneskelige omkostninger til følge.

Tilmeld dig Samfundsdesigns nyhedsbrev med nyt om offentlig digitalisering.

Læs artikel på SamfundsDesign: Danmark skal være førende på kunstig intelligens
Læs artikel på SamfundsDesign: RPA-robot tager nordjyder med storm
Læs mere på EG: Digital automatisering med softwarerobotter

Mest Læste

Annonce