Digitaliserings-direktør hos Saxo: Vores erfaringer med håndtering af massive mængder data
De voksende mængder af data findes overalt, og det stiller store krav til den enkelte organisation og især håndteringen af dataene. Claus Kenberg er CCO & CDO hos Saxo, og han ved, hvad han taler om, når det handler om at skabe værdi af data.
DANSK IT har talt med Claus Kenberg, CCO & CDO hos Saxo, og han deler ud af sine mange erfaringer med håndtering af data. Claus lægger ud med at forklare, at Saxo overordnet set håndterer deres data gennem tre fokusområder.
- Den første er kernen i vores setup: Vores datawarehouse. Det er her alt det relevante og færdigbehandlede data ender. Hvad enten det kommer fra interne eller eksterne kildesystemer, og om det har været igennem ét af vores setups med machine learning. Sidstnævnte er del to: Nærmere betegnet en række ’matematiske motorer’ – i og uden for cloud – som behandler en del af vores data. Det kan for eksempel være mønstergenkendelse på tværs af kundegrupper, produkter, etc. De afledte data, føres tilbage i datawarehouset og indgår som en del af det totale setup. Den sidste del er vores ”self-service”-frontend. Det er her den enkelte medarbejder tilgår vores data, og selv kan bygge rapporter og oversigter efter behov.
Datadrevet arbejdskultur
Saxo har formået at skabe en datadrevet arbejdskultur, og det har været en forudsætning, at den enkelte medarbejder skal have adgang til de data, som er relevante for vedkomende - på en let tilgængelig måde, fortæller Claus Kenberg.
- Efter en opstartsperiode med en traditionel ’business intelligence’-afdeling (aka. Rapportfabrikken), gik vi over til, at BI-afdelingen i højere grad beskæftiger sig med at sikre, at data har den rette kvalitet ikke kun teknisk, men især at definitionerne omkring data er på plads. Således har alle nøgletal og begreber en entydig definition, som alle kender og forstår. I tillæg til det, påbegyndte vi også vores aktiviteter omkring machine learning, som blandt andet har til formål at tage vores utrolig store datamængder og konsolidere til en overskuelig størrelse.
- I stedet for at skulle forholde sig til for eksempel 1 mio. kunder, kan den enkelte medarbejder i stedet forholde sig til 10 typer af kunder, som går på tværs og dermed supplerer de traditionelle metoder inden for segmentering med videre. Sagt med andre ord, var det nødvendigt for os at få vores data kogt ned til en overskuelig størrelse, der var relevant og skabte værdi for den enkelte medarbejder.
- Rent kulturelt blev der samtidig defineret en lang række nøgletal, så man - gennem data – kunne følge udviklingen. Her var det et mål i sig selv, at få så mange nøgletal som muligt ned på dagsniveau. På den måde får den enkelte medarbejder ”fingeren på pulsen” og kan træffe hurtigere og bedre beslutninger. Det skaber i sig selv motivation og forankring.
Indsigten giver nye spændende forretningsmuligheder
Claus Kenberg er ikke i tvivl om, at de store mængder data er en konkurrencefordel og at indsigten i høj grad kan bidrage til nye forretningsmuligheder.
- Efterhånden har de fleste virksomheder vel erkendt – eller anerkendt – at data er en konkurrencefordel. Men i stedet for at holde den data tæt til kroppen, som man ser hos for eksempel Amazon eller eBay, ønsker vi i højere grad at dele vores data (indsigt) med dem, vi samarbejder med. Gennem vores data, og store markedsandel, kan vi potentielt udlede hvad efterspørgslen er på bøger om et givent emne. Hvad bliver der søgt på, som udløser et salg? Men måske endnu vigtigere, hvad bliver der ofte søgt på, som ikke udløser et salg?
- Et tænkt eksempel kunne være, at der er stor efterspørgsel på bøger om ”Big data” – men trods det, så sælger vi ikke ret mange bøger om emnet. Gennem data kan det udledes at efterspørgslen ligger på ”Sådan kommer du i gang med…”-type bøger, men samtidig at udbuddet i højere grad består af akademiske bøger, med et (for) højt teknisk niveau. Ideelt set, kan den indsigt tilgå et forlag eller en forfatter, som dermed kan skrive en bog, der passer til efterspørgslen. Vi har selv gjort dette af flere omgange, ligesom der også er mange lignende eksempler på den praksis internationalt.
- I tillæg til den viden kan vi, gennem vores e- og lydbogs-streamingordning ”Saxo Premium”, se om en given bog bliver læst til ende af læserne. Og hvis den ikke bliver læst til ende, kan vi se, om læserne så generelt stopper på samme tidspunkt i bogen. Stopper hovedparten efter ”Kapitel 10” er det værdifuld information for forfatteren eller redaktøren til næste udgave. På samme måde kan forfattere og redaktører også se om dem, der typisk læser en given forfatters bøger, generelt også læser bøger inden for andre genrer eller forfattere osv.
- Der er mange eksempler, som alle sammen i sidste ende handler om at man gennem data, får en bedre indsigt, som ultimativt kan resultere i at der udgives bedre og mere relevante bøger til de danske læsere. Centralt for ’mekanismen’ er, at alt foregår på et anonymiseret niveau hvad angår kunder og læsere (jf. EU’s persondataforordning), men gennem vores machine learning kan vi finde de interessante mønstre og indsigt på et overordnet niveau.
Er du interesseret i at få flere gode råd af Claus Kenberg, så kan du møde ham og andre spændende talere på DANSK IT's datakonference den 12. september på DTU.