Hvordan kan vi bygge kvalitet inn i hele verdikjeden, fra kode til leveranse? For å besvare dette må vi definere kvalitet og hva det betyr for oss som jobber med test. Spør vi Rovo (Atlassian AI), får vi dette kjedelige svaret: “Kvalitet i testledelse er evnen til å sikre at hele verdikjeden – fra idé til produksjon – leverer verdi, trygghet og brukeropplevelse gjennom gode prosesser, samarbeid, kontinuerlig forbedring og riktig bruk av teknologi.”
Selv om definisjonen sikkert er riktig, er den veldig lite konkret. Datakvalitet nevnes ikke av Rovo. AI definisjonen på verdikjeden er heller ikke feil “Kvalitet må bygges inn i alle steg, ikke bare testes inn til slutt.” Systemene vi tester og innfører består ikke bare av funksjoner og prosesser. Hvorfor er vi ikke mer opptatt av kvaliteten på test-data?
Jeg mener at strategisk og tilstrekkelig fokus på hvordan vi identifiserer, utvikler og forvalter test-data er undervurdert.
Jeg skal dele erfaringer og løsninger rundt det jeg mener blir en stadig viktigere kvalitetskomponent i denne verdikjeden, nemlig ulike typer av data vi har behov for å forstå, og ha et forhold til i testprosessen. Behovet for god nok, og relevant datakvalitet er ikke noe nytt. Det påvirker kvaliteten til test av alle systemer og prosesser. Ofte bruker vi “workarounds” når dårlige eller manglende test-data påvirker systemet vi er med å utvikle og teste. Dette betyr enten at vi får feil testresultater eller manglende testdekning.
For mange IKT systemer vil ikke manglende datakvalitet være et alternativ. Det er binært, enten er data vi bruker i test riktig eller feil.
Så hva er riktig og god nok kvalitet på data vi bruker i test, og hvordan håndterer vi utfordringene med test-data? Jeg har valgt ut noen interessante metoder og teknikker jeg har benyttet for å bygge kvalitet inn i verdikjeden gjennom kvalitet på test-data.
Hos IMDi var kvaliteten på persondata avgjørende for å teste regelendringer for ulike typer innvandrere og flyktninger. Kun små feil i test-data, som i vedtakshistorikk, alder og adresser gjorde testene ubrukelige. Jeg forteller om hvordan vi brukte tverrfaglige team for utvikling av noen få syntetiske person arketyper og hvordan vi brukte disse til å utvikle kraftige datadrevne automatiserte tester og vedlikehold av disse.
Jeg beskriver også en metode for å verifisere at ulike datakilder som brukes i moderne signalsystemer for tog gir riktig forventede resultater. Metoden brukes til å bygge regresjons tester som fanger opp feil som forårsakes av endringer i infrastruktur data og ruteplaner. For å sikre at vi hadde de riktige testene brukte vi visualisering av data for alle fagmiljøer og systemeiere som direkte eller indirekte vil påvirkes av endringer.