Door algoritmes minder fouten in je administratie

Door , gepubliceerd op

Een aantal jaar geleden werkte ik als HR controller bij een grote organisatie. We besloten dat het tijd was voor strategische personeelsplanning, dus we ontwikkelden een model in Excel. Hoezeer mijn collega’s en ik ook ons best deden, uiteindelijk faalde het model. In dit artikel leg ik je uit waarom het faalde en hoe ik dat had kunnen voorkomen.

Mijn model faalde, omdat de basis gebouwd was op ontbrekende, onbetrouwbare en oude data. In onze HR-administratie zaten fouten in de overhead categorieën, productiviteitsdata ontbrak, de formatie was incompleet, enzovoorts.

Door aanname op aanname te stapelen kwam ik uit op een model dat er gelikt uitzag, maar uiteindelijk zo betrouwbaar was als een fruitautomaat.

Helaas zijn er veel meer organisaties met hetzelfde probleem. Onderzoek van Experian Data Quality laat zien dat 75% van de organisaties gelooft dat onjuiste data in weg staat van ‘een excellente klantervaring’. En toch wacht 65% van die organisaties tot er zich problemen in de datakwaliteit voordoen, voordat ze actie ondernemen.

Als je echt een impact wil gaan maken in je vakgebied (of dat nu HR, finance of iets anders is), vergeet dan even het maken van complexe analyses, ‘predictive modeling’ of al die andere hippe ontwikkelingen. Begin met het bouwen van een solide administratie. Een administratie die compleet, actueel en accuraat is. En ja, ook daar kunnen we algoritmes en machine learning voor gebruiken, dus de basis op orde krijgen hoeft echt niet saai te zijn.

Waarom er zoveel fouten in je data zitten

Laten we beginnen met de vraag waarom er zoveel fouten in je data zitten. In onze ervaring zal alles wat je niet continu opruimt uiteindelijk een puinhoop worden.

Het is geen geheim dat organisaties enorme hoeveelheden data administreren. Op enig moment in het proces wordt een groot deel van die gegevens ergens handmatig ingevoerd.

Mensen die grote hoeveelheden data moeten administreren maken (type)fouten, vergeten dingen en nemen zo nu en dan een ‘kortere route’ (bijvoorbeeld door een streepje of een nul in te voeren in een verplicht veld, zodat ze een formulier sneller kunnen insturen).

In de praktijk merken organisaties dit pas als ze de gegevens echt...heel...hard... nodig hebben. Voor een rapport, een analyse, enzovoorts. Normaal gesproken is dat het moment waarop een organisatie actie onderneemt om data op te schonen.

In mijn voorbeeld: toen we er achter kwamen dat de overhead categorieën in onze administratie wankel waren, deden we wat de meeste organisaties zouden doen.

We maakten een analyse van de gegevens die fout of incompleet waren, we vroegen ons administratieve team om die gegevens te corrigeren, we voerden een check uit om te zien of de gegevens inderdaad gecorrigeerd waren en we vroegen ons administratieve team zelfs om in de toekomst scherper te administreren.

En toen lieten we het los.

Het is een beetje vergelijkbaar met winkeldiefstal. In de praktijk huren veel organisaties een ‘beveiliger’ in. Net als de beveiliger, die om de zoveel tijd zijn vaste rondje maakt, hebben ze een controller of business analyst, die een analyse uitvoert op een specifiek gebied, een lijst maakt met foute of incomplete data, de administratie instrueert en vervolgens een analyse gaat maken op een ander gebied.

Het risico is dat zodra de beveiliger een rookpauze neemt, de winkeldieven terugkeren en hetzelfde geldt voor foute of incomplete data. De volgende stap is om van ‘ad hoc verbeteren’ (de beveiliger) door te groeien naar ‘Continu Verbeteren’ (24/7 beveiligingscamera’s).

Casus uit de praktijk: Continu Verbeteren bij Universiteit Leiden

Een van de voorlopers op het gebied van Continu Verbeteren is Universiteit Leiden. Rob van den Wijngaard en zijn team van het Financial Shared Services Center hebben verschillende algoritmes ontwikkeld om fouten en risico’s in hun administratie continu op te sporen en te herstellen.

Een voorbeeld: dubbele facturen leiden tot onnodige kosten. Een van de algoritmes die ze in Leiden gebruiken scant hun administratie continu (voor de betaalrun) op potentieel dubbele facturen.

Simpel gezegd controleert het algoritme verschillende facturen op zaken als de referentie, crediteur en het factuurbedrag. Ieder onderdeel kan resulteren in ‘geen match’, een ‘hard match’ (het onderdeel op de factuur is precies hetzelfde als bij een andere factuur) of een ‘fuzzy match’ (het onderdeel op de factuur lijkt sterk op een andere factuur).

Afhankelijk van het aantal matches krijgt een potentieel dubbele factuur ‘een vlaggetje’ (een zogenaamde ‘uitzondering’). Universiteit Leiden gebruikt tientallen van dit soort algoritmes (waarbij ze checken op matches, lege velden, onjuiste gegevens, et cetera).

Het feit dat de controles automatisch worden uitgevoerd betekent dat een hoop verschillende aspecten van de administratie continu kan worden gecontroleerd, zonder dat het een beslag legt op kostbare capaciteit.

Naast de algoritmes gebruikt Universiteit Leiden ook een systeem waarmee ze de afhandeling van de uitzonderingen digitaal ondersteunen. Uitzonderingen worden daarmee automatisch naar het administratieve team gestuurd.

Van iedere uitzondering wordt door het systeem geregistrerd wie, wat, wanneer gedaan heeft met welke uitzondering. Op die manier ontstaat een audit trail en wordt de basis gelegd voor Continuous Auditing. Met andere woorden, niet alleen de uitzonderingen worden geregistreerd (wat gaat er mis?), maar ook de opvolging (wat hebben we eraan gedaan?).

Deze aanpak zorgt er niet alleen voor dat uitzonderingen ook daadwerkelijk worden afgehandeld, maar het genereert ook waardevolle feedback op de algortimes en het doorlopen proces. Als de uitzondering in het voorbeeld hierboven leek op een dubbele factuur, maar dat in werkelijkheid niet was, markeert het administratieve team de uitzondering als een zogenaamde ‘false positive’.

De input van de false positives traint de algoritmes (hetzij door menselijke tussenkomst, hetzij door machine learning) om meer precies te zijn. Op het moment dat dezelfde (terechte) uitzonderingen keer op keer gevonden worden, kan dat bijvoorbeeld betekenen dat de processen niet duidelijk zijn of aanpassing behoeven.

Het klaverblad model

Het is belangrijk om je te realiseren dat het succes van het praktijkvoorbeeld hierboven niet alleen te danken is aan IT. Universiteit Leiden is een aanhanger van het zogenaamde Klaverblad model. Continu Verbeteren kan volgens dat model alleen een succes worden als de onderdelen IT, Mensen en Cultuur, Management en Organisatie en Processen nauw met elkaar samenwerken.

Om een voorbeeld te geven, een gemotiveerd administratief team en gemotiveerde leidinggevenden die zich actief richten op het afhandelen van gevonden uitzonderingen, zijn net zo belangrijk als de innovatieve software die die uitzonderingen ontdekt.

Continu verbeteren in HR

In de praktijk merken we dat het geautomatiseerd opsporen van fouten en risico’s in de administratie vooral ‘het feestje’ van Finance is. We vermoeden dat dit twee belangrijke oorzaken heeft.

De eerste ooorzaak is dat de business case in bijvoorbeeld HR minder direct is dan in Finance. Een dubbele factuur betalen leidt duidelijk en direct tot onnodige kosten. Tot op zekere hoogte lijkt dit negatieve effect minder aanwezig binnen HR.

Daarnaast kun je in onze optiek stellen dat Finance veel meer aandacht besteedt aan datakwaliteit vanwege Audit risico’s en verplichtingen. Dat laat onverlet, dat Continu Verbeteren voor HR zeker zo waardevol kan zijn als voor Finance.

Een voorbeeld ter illustratie. Onderzoek gedaan door SD Worx laat zien dat in Europa 44% van de 4000 ondervraagden weleens te laat salaris heeft ontvangen. In 48% van die gevallen was het salaris niet alleen te laat, maar bevatte de loonstrook daarnaast ook fouten. In 79% van die gevallen werd de fout ontdekt door de medewerker zelf.

Dit voorbeeld laat een paar dingen zien. In de eerste plaats toont het aan dat er nog genoeg ruimte voor verbetering is in de datakwaliteit van HR. In onze ervaring is het payroll proces het HR proces bij uitstek, waar datakwaliteit de meeste aandacht krijgt.

Fouten in het payroll proces kosten geld en zorgen voor complianceproblemen. Dus normaal gesproken zal datakwaliteit in dit proces meer aandacht krijgen dan bijvoorbeeld de registratie van overhead categorieën. Kun je je voorstellen hoe foutgevoelig data uit dit soort minder prominente processen is? Het voorbeeld hierboven laat ook zien dat ook fouten in HR data kunnen leiden tot onnodige directe kosten.

Er zijn meer voorbeelden. Een daarvan is het verkeerd gebruik van inhuurcontracten (wat kan leiden tot boetes van de Belastingdienst). Maar denk ook aan personeelsfraude of fouten in (reis)declaraties. Enzovoorts.

Naast directe kosten, kunnen fouten in HR data ook tot substantiële indirecte kosten leiden. Fouten in overheadcategorieën lijken misschien niet zo belangrijk, maar als het resultaat is dat je organisatie niet op een betrouwbare manier kan sturen op overheadratio’s, zullen het dure fouten blijken te zijn.

Conclusie

We hebben gezien dat administraties foutgevoelig zijn. Niet alleen in Finance, maar ook in HR (misschien zelfs wel meer, door gebrek aan urgentie).

Gebrekkige data kost geld. Op een directe of indirecte manier. Gelukkig zijn er tegenwoordig voorbeelden van organisaties die op een succesvolle manier vertrouwen op ‘Continu Verbeteren’ in plaats van op ‘Ad hoc verbeteren’.

Dus de volgende keer dat je een geavanceerd model gaat bouwen, stel jezelf de volgende vraag: “Is de data die ik nodig heb voor mijn model accuraat en volledig (zowel op dit moment als in de toekomst)?” Als het antwoord “Nee” is, overweeg dan om eerst stappen te gaan zetten in Continu Verbeteren.

Dit artikel is een bewerking van ons artikel dat eerder verscheen op analyticsinhr.com

In control met onze oplossingen

We hebben verschillende producten om met algoritmes in control te komen. Om datagedreven te gaan werken en om data slim te gebruiken om continu te verbeteren.

GRATIS

Laagdrempelige manier om kennis te maken met geautomatiseerde data-analyses

Gratis

FLEX

Een maatwerk algoritme om dat ene specifieke probleem in je administratie op te lossen

Vanaf 4500

EXPERT

Een met een vakinhoudelijk expert ontwikkelde en beproefde set algoritmes op specifieke thema's

Vanaf 5000

ENTERPRISE

Een volledige suite om datagedreven continu te verbeteren met een onbeperkt aantal algoritmes

Vanaf 50000

Op de hoogte blijven?

Volg ons op  LinkedIn of lees ons blog.

Tip je collega

De kleine lettertjes

Voorwaarden

Home
Oplossingen Gratis Flex Expert Enterprise
Blog Ons verhaal Contact