AI-systemer fravælger ikke løsninger, fordi de er dårlige.
De fravælger dem, fordi de er risikable at forklare.
Når et system skal generere en anbefaling, er det ansvarligt for sammenhængen i svaret.
Hvis en løsning kræver for mange forbehold, undtagelser eller kvalifikationer, øges risikoen for misrepræsentation.
Misrepræsentation er ikke et spørgsmål om fejl.
Det er et spørgsmål om usikkerhed.
I beslutningssituationer vurderer AI ikke, hvad der er muligt.
Det vurderer, hvad der kan anvendes uden at skabe tvivl, misforståelse eller forklaringsbrud.
Jo større risiko for at noget kan blive misforstået, desto mindre sandsynligt er det, at det bliver valgt.
Derfor er fravalg ofte et resultat af struktur — ikke af relevans.
Ikke fordi en løsning er forkert, men fordi den er svær at forsvare.
Implementering på dette lag handler om at reducere beslutningsrisiko.
Ikke ved at begrænse virkeligheden, men ved at gøre den forklarbar.
Det er her, misrepræsentation bliver en afgørende faktor i valg.