Mange offentlige institusjoner har store datamengder fra mange kilder, men kvaliteten på data varierer dramatisk. Både i de enkelte datakildene og i kombinasjonen av data ligger mulige feilkilder som både kan redusere potensialet av kunstig intelligens, og medføre risiko for skjevhet og andre uønskede, og til og med potensielt diskriminerende, konsekvenser.
Manglende historiske data, manglende felles nøkler på tvers av systemer, forskjellige definisjoner på tvers av organisasjonen, og uavklarte personvernhensyn er alle utfordringer som begrenser mulighetsrommet for bruk av kunstig intelligens.
En annen viktig faktor når vi snakker om data er utfordringen med bevisst eller ubevisst skjevhet i data, som kommer med og kan være en svakhet. Dette reiser etiske spørsmål rundt løsninger som bruker kunstig intelligens. Enten vi ser på løsninger i offentlig sektor innen offentlig forvaltning, trafikk og infrastruktur, eller helsevesenet, er det avgjørende at vi kan ha tillit til bruken av kunstig intelligens og de beslutningene og konsekvensene som kommer av den.