Blog
Maar wat is data analyse nou echt?
Waarom de juiste definitie binnen jouw organisatie van belang is bij de keuze voor tooling en mensen
Analyse is een vak op zich, maar tegelijkertijd bij veel andere vacatures een genoemde competentie. Van Sales tot Marketing tot Customer Success tot Product: iedereen moet beschikken over een ‘analytische mindset’. Maar: bieden we iedereen dan ook de juiste omgeving voor analytisch succes? In deze blog hoe je ongemerkt kansen laat liggen, als je niet goed afstemt wat voor type analyse je gaat doen. En dan gaat het nog niet eens over welke algoritmen je kiest. Fundamenteler is de vraag: maar wat is data analyse nou echt?
Net als veel vakgebieden is er ook in data en analytic s sprake van trends (niet te verwarren met trendanalyse, waar er overigens ook sprake van is). En net als in veel vakgebieden verandert er, als je door je oogharen naar die trends kijkt, eigenlijk vrij weinig. Neem de uitdaging hoe we data nu écht breed in een organisatie gaan wegzetten. In 2010 werd dat nog self-service BI, nu hopen we dat een Large Language Model, zoals ChatGPT, ons verlost van SQL-hoofdpijn.
In de praktijk zijn beiden niet zaligmakend (tot dusver). Kijk maar om je heen: wie kan al zeggen dat hij zijn analysewerk heeft geautomatiseerd? Of dat al zijn collega’s zelf met data aan de gang kunnen? Dat niemand meer vragen heeft die al drie weken op een antwoord wachten van het datateam?
De onderliggende gedachte is wel begrijpelijk: met tooling die al het technische geneuzel voor ons oplost, kan de eindgebruiker zelf met de data aan de gang. Want datamensen zijn schaars en de databehoefte is groot (en die zou nog groter mogen worden). Maar tussen alle (potentiële) gebruikers van je data zit veel verschil. Wil je dus echt waarde uit je data halen, dan moet je daar eerst bij stilstaan. Niet uit frustratie, maar omdat de ‘bloedgroep’ van analyses die je echt nodig hebt, wel eens zouden kunnen afwijken van wat je denkt of al in huis hebt.
”Wie kan al zeggen dat al zijn collega’s zelf met data aan de gang kunnen?”
Journalisten vs. wetenschappers
Benn Stancil benoemde die verschillen in eerdergenoemde blog over self-service. Hij categoriseerde daarmee datagebruikers grofweg in twee categorieën: journalisten en wetenschappers. De eerste willen vooral weten wat er gebeurd is of hoe we ervoor staan. Een soort monitoring dus, op basis van wat we nú al meten en vastleggen. De tweede categorie, ‘wetenschappers’, wil data verzamelen en/of transformeren om te komen tot nieuwe inzichten en hypotheses. Beide soorten vallen onder ‘analyse’, maar: hun impact op je organisatie is totaal anders. De één zorgt voor grip op de huidige situatie, de ander zorgt voor nieuwe impulsen voor de toekomst. En om beiden te kunnen inzetten, heb je verschillende tools en mensen nodig. Geen kladblokjes of microscopen, maar wel de juiste dingen om hun werk makkelijk te maken.
Als we die typering van analyse wat breder trekken, kom je op de volgende kenmerken:
‘Nieuw inzicht’ | ‘Hoe staan we ervoor’ |
---|---|
Ad hoc, projectmatige inzichten | Dagelijkse/maandelijkse rapportages (verkopen, leads, omzet en andere KPIs) |
Vaak ter validatie van een idee of om nieuwe (bedrijfs)richtingen te verkennen |
Vaak voor bijsturing of controle |
Verdiepend, voorspellend; vaak minder grijpbaar in een ‘standaard rapport’ en daarmee vaker voer voor een presentatie | Beschrijvend en doelgericht |
Doorgaans uitgevoerd door analisten, data scientists etc. | Vaker bij niet-analisten: business, finance etc. |
Data Maturity, maar dan anders
In je IT-organisatie is er wel een parallel te zien met Run vs. Change (hoewel DevOps ook daar langzaam gehakt van maakt). En net als daarbij geldt: niet voor elke organisatie zijn beide kanten even belangrijk. Wellicht heb je ze niet eens allebei (intern) nodig en kun je de benodigde tools en expertise ook af en toe van buiten halen.
Of dat zo is, hangt ook samen met op welk niveau van ‘data maturity’ je organisatie zit. Helemaal in het begin daarvan zal juist iedere analyse ad hoc zijn. Dat geldt ook als je bedrijf te klein is voor dedicated analisten/specialisten. Naar mate je organisatie meer groeit, groeit ook vaak de databehoefte mee, en groeit die vaak ook dieper de organisatie in.
Nu hebben veel partijen al modellen gemaakt om je maturity te plotten, maar de grote gemeenschappelijke factor is vaak: wie gebruikt de (juiste kwaliteit) data al, hoe is dat gestructureerd, hoe is data in de organisatie ingedeeld en op welke niveaus. Die maturity zegt zeker iets over wat voor soort datalandschap je nodig hebt. Denk daarbij aan mate van integratie en hoe flexibel een toolset moet zijn om data-afnemers zelf iets met de data te laten doen. Maar: in iedere stap kun je eerdergenoemde tweedeling – ‘nieuw inzicht’ vs ‘hoe staan we ervoor’ wel toepassen. Daarom is het nuttig ook voor die twee soorten data analyse eens te kijken wat je nodig hebt.
‘Nieuw inzicht’ | ‘Hoe staan we ervoor’ |
---|---|
Genoeg (flexibele) resources in een dataomgeving om grotere datasets te kunnen verwerken | Vooraf gedefinieerd(e) datamodel(len) die langdurig toegankelijk en actueel blijven |
Mogelijkheden tot data modellering/transformatie |
Manieren van distributie van die inzichten, zoals e-mail scheduling, meerdere inlogs in je organisatie of PDF exports |
BI tooling met ‘self service’ mogelijkheden of een workbench voor data science. Denk aan AWS SageMaker, Dataiku, Alteryx, MicroStrategy etc. | BI tooling met intuitieve visualisatiemogelijkheden, zoals PowerBI, Tableau en AWS Quicksight |
Beiden hebben daarnaast natuurlijk wel vereisten aan governance en security. Denk bijvoorbeeld aan wie bij de data of de dashboards mag, en wie die mag bewerken. Dat is geen kleinigheid, maar staat los van het meer fundamentele vraagstuk.
Daarnaast kan het natuurlijk zo zijn dat een nieuw inzicht uiteindelijk opgenomen wordt in je reguliere rapportagestructuur. Het is dan ook nooit een absolute tweedeling; als je maar zicht hebt op of je in de juiste mate voorziet in beide behoeften.
Wat betekent dit voor ons?
Misschien in eerste instantie niet zoveel schokkends. Data analyse is soms lastig, IT is overal wel eens een bottleneck, de business wil overal wel eens iets dat niet zo makkelijk te bouwen is als het klinkt…
Toch, als je nagaat hoe vaak je bepaalde inzichten mist om een volgende stap te onderbouwen, valt het een en ander wellicht op zijn plek. Bijvoorbeeld de beperkingen van de standaardrapporten van Google Analytics 4, waardoor je niet makkelijk een verdiepend inzicht kan vinden over je klantreizen (wel ‘hoe staan we ervoor’, niet ‘nieuw inzicht’). Denk aan dat spreadsheet vol leads dat je naar hartenlust kunt filteren, maar waar het lastig is trends uit te distilleren of deze te delen (wel ‘nieuw inzicht’, niet ‘hoe staan we ervoor’). Rapportages in al je martech tools, zoals je Spotler, Hotjar en Google Ads, maar geen universeel klantbeeld dat over al die datapunten rapporteert. Daardoor houd je alleen een gefragmenteerd beeld over je klantreizen over (wel ‘hoe staan we ervoor’, niet ‘nieuw inzicht’).
Vaak als de reden voor een blinde vlek ‘die data hebben we niet’ lijkt, is de échte reden dat de data niet op het juiste detailniveau in een omgeving staat waar je ad hoc inzicht uit kunt halen. En vaak als er sprake is van een ‘dataloket’ – waardoor de échte afnemers van de data, zoals marketing, te weinig continue controle hebben op wat er gebeurt – is het issue dat de data te weinig gedeeld kan worden. Als je je eerder afvraagt wat data analyse nou echt is in jouw organisatie, ben je dat hopelijk voor.
Wanneer wordt het ontbreken van de juiste infra een probleem?
‘Nieuw inzicht’ | ‘Hoe staan we ervoor’ |
---|---|
Als je intuïtie niet meer kan verklaren waarom ‘hoe staan we ervoor’ niet het maximale behaald |
Je ‘manusje-van-alles’ dataloket/ad-hoc analist wordt een bottleneck voor inzichten op het juiste moment |
Als de data niet meer op je laptop geanalyseerd kan/mag worden, omwille van het volume van de data of omwille van security/privacyvereisten |
Data en inzichten gaan soms zijn eigen leven leiden, doordat e-mailketens worden doorgestuurd, PDFs van analyses uit context worden gehaald of spreadsheets door meerdere mensen worden bewerkt |
Als het koppelen van databronnen een vereiste wordt voor nieuwe richtingen. |
Te weinig standaardisatie in de beschikbare data, waardoor er verschillende waarheden leven binnen het bedrijf |
Als bepaalde data totaal ontbreekt |
Inzichten verzamelen dagelijkse controle wordt te complex/tijdrovend, waardoor medewerkers data gaan vermijden of Shadow IT ontstaat |
De conclusie
Er is vaak geen one-size-fits-all oplossing die in iedere databehoefte voorziet. Dat is ook niet het doel van dit artikel. Maar bedenk je: in veel bedrijven is de aanschaf van nieuwe tooling ofwel primair een IT/architectuur aangelegenheid, ofwel wordt het juist erg losgelaten zonder strakke regie. In beide gevallen levert dat risico’s op.
Enerzijds is de kans groot dat de keuze voor een tool gemaakt wordt door iemand die ooit een keer voor tool X gevallen is en sindsdien tool X voor alles wil gebruiken. Anderzijds loop je het risico dat degene die de keuze moet maken, zelf voor het eerst (en het laatst) zal kiezen voor een soort tool.
Dat is niet erg: mensen veranderen van functie, techniek verandert en grote softwarekeuzes maak je niet ieder jaar. Maar het gevolg kan wel zijn dat je een keuze maakt die alleen 1 van de analysesoorten echt goed faciliteert. Dat is prima als dat past bij je organisatie en voorziene groei, maar minder als je een jaar later opnieuw een bottleneck ontdekt. Vraag je dus vooral wat: wat is data analyse nou echt in mijn organisatie? Want zoals we aan het begin al zeiden: analyses worden voor iedere baan een benodigde competentie. Slechte toolkeuze wordt daarmee ook voor iedereen een probleem.