8.11.2019 / Mika Aho

Aiemmissa blogeissa on vilahdellut värikäs nelikenttä, jonka hilpeitä värejä peittää läpinäkyvä kolmio. Mitä nelikentän eri laatikot sitten tarkemmin ottaen tarkoittavat? Tässäpä kustakin lyhyt kuvaus ja muutamia asiakasesimerkkejä.

 

Tehokkuuden ja päätöksenteon parantaminen

Perimmäisenä kysymyksenä on miten organisaatio toimii sujuvammin ja tehokkaammin datan avulla?

Tehokkuutta haetaan esimerkiksi:

  • automatisoimalla tai tukemalla päätöksentekoa—toteutimme VTV:lle tekoälybuustatun työkalun valtionhallinnon hankinnoissa tapahtuvien mahdollisten riskitapausten tunnistamiseksi. Työkalu ei korvaa tarkastajia, mutta auttaa heitä potentiaalisten riskitapausten löytämisessä
  • optimoimalla päätöksiä—eräälle toiselle valtion virastolle toteutettiin koneoppimismalli hakemusten automaattiseen luokitteluun, joka kykeni 90 % tarkkuudella luokittelemaan hakemukset oikein useiden eri luokkien kesken ja teki vuoden työt noin sekunnissa
  • ymmärtämällä paremmin asiakkaita tai markkinoita—rakensimme tukkukaupalle mallin vihannesten maailmanmarkkinahintojen vaihtelun ennakointiin, jotta voitiin optimoida ostoja ennen hintojen nousua
  • vähentämällä manuaalista työtä (tai kustannuksia) automatisoimalla toistettavia prosesseja—korvasimme mediatalon manuaalisen julkaisulevikin jatkuvan seurannan ja ennustamisen koneoppimiseen perustuvalla ratkaisulla, joka ennustaa levikkiä kuukausia eteenpäin

Ja aina tähän ei tarvita edes mitään edistynyttä analytiikkaa (tekoälyä). Ihan dataan tutustumalla ja sitä analysoimalla voidaan saavuttaa hyviä tuloksia.

Elävä esimerkki Suomen huipulta: Eräässä yrityksessä tehtiin konfiguroitavia tuotteita oletuksella, että turvallisuusstandardin mukaisesti kaikkiin heidän tuotteisiinsa pitäisi lisätä uusi osa. Kymmenien tuhansien eurojen tuotteessa yksittäinen osa on sinällään halpa, asennettuna itse asiassa alle 200 euroa.

R&D:n toimesta pelkästään dataa analysoimalla tunnistettiin yli viisinumeroinen määrä tapauksia, joihin tätä osaa ei tarvitse vuosittain asentaa. Tämä johti usean miljoonan euron vuotuisiin säästöihin.

 

Operatiivinen erinomaisuus

Perimmäisenä kysymyksenä on miten maksimoida tehokkuus ja kannattavuus dataa hyödyntäen?

Operatiivista erinomaisuutta haetaan esimerkiksi

  • niputtamalla yhteen pienempiä kokonaisuuksia, jotka yhdessä muodostavat jotain suurempaa tai kunnianhimoisempaa—mitäpä jos myydessäsi tori.fi:ssä krääsää, ottaisitkin vain kuvan tuotteesta ja palvelu tunnistaisi, mitä olet myymässä, luokittelisi sen oikein, tekisi kuvauksen ja hinnoittelisi tuotteen puolestasi ja löytäisi vieläpä potentiaalisen ostajan?
  • optimoimalla kokonaisia liiketoimintaprosesseja (esim. tilauksesta kassaan)—kuten edelläkin, maksimoidaan hyödyt käyttämällä oikeita (AI-)ratkaisuja oikeissa paikoissa. Tilauksia tulee monesta kanavasta ja AI voisi käsitellä sähköpostin kautta tulevat tilaukset (ja antaa hankalat ihmisten käsiteltäviksi), myyntisaamisten puolella ennustaa asiakkaiden maksuvaikeuksia, laskutusvaiheessa huomioimalla maakohtaiset säännökset ja erot jne.
  • ennustamalla myyntiä tai kysyntää—tämä on aika klassinen käyttökohde. Yhtenä mielenkiintoisena casena ennakoimme aikoinaan vanhusten pitkäaikaishoitotarvetta perustuen sote-toimijan anonymisoituun dataan. Tavoitteena oli ennustaa hoitotarpeen kokonaismäärää, jota pystyy käyttämään muun muassa sote-palveluverkon kapasiteetin ennakointiin. Ennustetarkkuus oli todella hyvä ja ratkaisu on nykyään osa FCG Prodacapo Finlandin Ecomed-alustaa
  • optimoimalla tarjousten läpimenoa—toteutimme KONEelle ratkaisun, joka auttaa myyjiä etsimään todennäköisesti optimaalisimman hinnan (tai oikeammin hintaluokan) kullekin tarjoukselle

Talviliukkaiden vaaniessa nurkan takana on YIT:lle pari vuotta sitten tekemämme Kelikoneäly oivallinen esimerkki operatiivisesta erinomaisuudesta. Teiden oikea-aikainen auraus ja suolaus ovat erittäin tärkeitä tekijöitä, sillä liian aikaiset lähdöt maksavat paljon (pitää lähteä toisenkin kerran) ja liian myöhäiset lähdöt vaikuttavat turvallisuuteen ja tuovat korvausvastuut.

Kelikoneälyssä ennustetaan koneoppimisen keinoin kelitilanteen muutoksia ja liukkautta muutamaa tuntia eteenpäin. Kun tiesää on ennakoitavissa, on myös helpompi tehostaa suolan käyttöä, varata oikea määrä kalustoa teille ja toimia kustannustehokkaasti urakan, tilaajan ja myös tienkäyttäjän parhaaksi. Toisin sanoen maksimoida tehokkuus ja kannattavuus.

 

Digitaalinen asiakaskokemus

Perimmäisenä kysymyksenä on miten käyttää dataa asiakaskokemuksen parantamiseksi? (tai ehkä sisimmissään auttaa asiakkaita tuntemaan, että heitä palvellaan ja arvostetaan)

Digitaalista asiakaskokemusta haetaan esimerkiksi:

  • itsepalveluasteen nostamisella—chatbotit sekä virtuaaliavustajat antavat nopeat vastaukset yleisimpiiin kysymyksiin ja asiakaspalvelijoiden aika tulee käytettyä hankalampiin tapauksiin. Sitä paitsi botit jaksavat palvella väsymättä 24/7 ja myös osata ohjata asiakasta kohti ostopäätöstä
  • parantamalla personointia—Netflix ja Spotify ovat tästä huikeita esimerkkejä, mutta miksei myös verkkosivusi ja sähköpostimarkkinointisi personointi asiakkaan näköiseksi ja tarpeiden mukaiseksi. Hyvin toteutettuna on molempien etu, että asiakas tunnistetaan aina palveluita käyttäessään—parhaimmillaan asiakkaalle tulee fiilis, että tämähän on räätälöity ihan minua varten
  • vähentämällä kitkaa—tutkimalla asiakaspolun eri vaiheissa syntyvää dataa voi löytyä paikkoja, jossa asiakaskokemus (hetkellisesti) laskee. Nostamalla lentokorkeutta voi löytyä myös samankaltaisesti toimivia asiakassegmenttejä, joita hiertävät samat asiat
  • parantamalla ostokokemusta—mielenkiintoista nähdä, milloin kassalinjat jäävät Suomessakin historiaan ja hyllystä poimittujen tuotteiden kanssa kävellään kaupasta ulos ja ne veloitetaan tililtä automaattisesti. Tai, että jääkaappi täyttää ihan itse itsensä

Eräässä projektissa ennustimme postipaketin toimitusaikaa paikasta A paikkaan B ja pystyimme tarkentamaan ennustetta paketin edetessä reitillä.

Loppuasiakas hyötyy tästä (jos hyötyy, kun on kuitenkin töissä) tietämällä aiempaa tarkemmin, milloin paketti saapuu noudettavaksi. Pakettien toimittaja puolestaan nopeuttaa kiertoa ja saa tyytyväisempiä asiakkaita. Mielenkiintoista tässä oli myös se, että neuroverkkomalli kykeni ennustamaan erittäin hyvin toimitusaikoja myös sellaisille reitti-tuote-kombinaatioille, joita ei ole aikaisemmin ollut datassa.

 

Datan monetisointi ja kasvu

Perimmäisenä kysymyksenä on millaisia uusia (disruptiivisia) palveluita, tuotteita ja liiketoimintamalleja voidaan luoda datan ympärille?

Monetisointia ja kasvua haetaan esimerkiksi:

  • myymällä dataa (luomalla siitä pääomaa)—tämä tulee varmasti monella ensimmäisenä mieleen. Kannattaa miettiä, myykö datansa raakamuodossa, vai kannattaisiko se paketoida ennemminkin (rajapinnan läpi käytettäväksi) palveluksi. Hyviä esimerkkejä ovat Bisnoden yritysdata tai vaikkapa Forecan myymä säädata. Dataa voi myydä myös tuottamalla siitä näkemyksiä, kuten MarketVisionin maksulliset tutkimukset
  • lisäämällä dataa ja analytiikkaa tuotteisiin tai palveluihin—toinen perinteinen tapa kasvattaa organisaation kokonaisarvoa dataa hyödyntämällä on lisätä sitä tuotteisiin ja palveluihin (kuten älykelloihin, termostaatteihin, golf-mailoihin…), luoda sen päälle uusia maksullisia palveluita ja mahdollisuuksien mukaan myydä dataa (anonymisoituna) eteenpäin
  • antamalla jotain ilmaiseksi—Googlen veloituksettomat palvelut ovat tästä loistoesimerkki, jossa saamalla jotain ilmaiseksi luovutamme samalla tietojamme Googlelle sekä mainostajille
  • virtualisoimalla arvoketjuja—perinteisenä esimerkkinä Airbnb, jossa ihmiset voivat tarjota majoituspalveluita. Suomalainen Combi Works on myös mielenkiintoinen peluri tarjoamalla asiakkailleen laajaa teollista tuotantoa hyödyntämällä olemassa olevien vapaiden tehtaiden kapasiteettia. Tämä vaatii myös perinteisemmässä teollisuudessa siirtymistä toimitusketjulogiikasta alustalogiikkaan

Datan myymiseen liittyen olimme mukana toteuttamassa Lääketietokeskukselle Pharmarket-markkinatilastopalvelua, jossa lääkealan yritykset ja muut toimijat voivat analysoida Suomen lääkemarkkinaa valtakunnallisella ja alueellisella tasolla.

Lääketietokeskus myy palveluaan muun muassa lääkkeitä markkinoiville yrityksille, viranomaisille, yhdistyksille, tutkimusyrityksille sekä konsulttipalveluita tarjoaville yrityksille. Dataa hyödynnetään esimerkiksi kilpailijaseurannassa, uusien tuotteiden markkinointimahdollisuuksia analysoitaessa, myyntitavoitteiden seurannassa sekä lääkkeiden hinta- ja myyntianalyyseissä.


16.10.2019 / Mika Aho

Datastrategiaprojektin ehkäpä mielenkiintoisin vaihe on dataan pohjautuvien liiketoiminnan kehittämismahdollisuuksien tunnistaminen. Tänään pääsemme niiden kimppuun.

Jostain syystä näitä on kuitenkin vaikea tunnistaa. Gartnerin (2018) tutkimuksen mukaan noin kolmasosassa organisaatioista on vaikeuksia löytää sopivia käyttötapauksia datalle, johon varmaankin osasyynä on, että vain 12 %:lla on organisaation laajuinen datastrategia (Forbes, 2018).

Tiedä häntä ja tuskinpa noin. Isoimpana syynä luulisin, ettei tiedetä. Tämä näkyy erityisen hyvin vetämissämme bisnestyöpajoissa. Jos maturiteettitaso on alhainen, myös datan käyttötapaukset jäävät raportoinnin, analysoinnin ja manuaalisten työvaiheiden korvaamisen tasolle. Näillä ei ihan vielä luoda uutta distruptiivista liiketoimintaa, vaikka se konsernin strategiakalvoissa vilahtelisikin. Ei tiedetä datan mahdollisuuksista liiketoiminnassa tai olla kypsiä soveltamaan niitä.

Poikkeuksiakin löytyy — totta kai — ja usein vielä saman organisaation sisällä eri yksiköistä, toiminnoista tai ihmisistä.

Toisinaan konsulttina tekisi mieli muuttaa maailmaa hetkessä, mutta mitä enemmän eri (suur)yrityksiä on nähnyt, sitä enemmän tuntuu siltä, että niiden on vain kuljettava tietty polku mahdollisuuksien ymmärtämiseksi.

Mutta, asiaan.

Datasta näkemyksiksi ja business case -aihioiksi

Dataan pohjautuvia tietotarpeita ja liiketoiminnan kehitysmahdollisuuksia kannattaa tunnistaa eri näkökulmista. Kerron seuraavaksi muutaman niistä.

Siinä missä AI-työpajoissa business-ongelman identifiointi on systemaattisempi ja syvällisempi, pyritään datastrategiaprojektissa alkuun löytämään isompi joukko kehitysmahdollisuuksia sekä tekemään karsintaa myöhemmin. Halutaan ennemminkin muodostaa kokonaiskuva organisaation tarpeista ja datan mahdollisuuksista. Kevyttä priorisointia on silti hyvä harrastaa, kuten myöhemmin opimme.

Lähestytään kehitysmahdollisuuksia alkuun kolmen näkökulman kautta.

 

1. Datasta näkemyksiksi – jos kaikki olisi mahdollista

Mitäpä jos kaikki olisi mahdollista? Mitä haluaisit nähdä ensimmäisenä tietokoneesi tai mobiililaitteesi ruudulla kun tulet töihin?

Lähdetään alkuun liikkeelle loppukäyttäjästä (eli sinusta) ja mietitään, miten data käännetään helposti saatavilla olevaksi informaatioksi ja näkemyksiksi.

Olen vetänyt tätä harjoitusta useammalle sadalle henkilölle noin kymmenen vuoden aikana (on tullut muuten muutama takan pesällinenkin sytytettyä top-secret-dashboardeilla). Edelleen hämmästelen sitä, miten hyvin tämä harjoitus toimii ajatusten herättäjänä varsinkin kun ihmiset pääsevät aidosti kertomaan omista tarpeistaan. Hämmästyttävää on myös se, miten vähän eri yrityksissä keskustellaan tai tiedetään toisten (liiketoimintojen) tarpeista, vaikka istutaan melkein naapuripöydissä. Usein ollaan kuitenkin ihan perusjuttujen äärellä, kuten myyntipipen visualisoimisessa tai varastoarvojen raportoinnissa.

Tusseja, paperia ja post-it-muistilappuja

Dashboard-harjoitukseen tarvittavat välineet ovat tussit, oikein iso paperi (ideaalisesti revittynä fläppitaulusta) ja kasa post-it-muistilappuja.

Ajatuksena on yksinkertaisesti piirrellä omaa ideaalista dashboardia, jos kaikki olisi mahdollista. Korostaen vielä, että kaikki olisi mahdollista ilman datan, organisaation, teknologian tai prosessien tuomia rajoitteita.

Kun ideaaliset dashboardit on piirretty, kannattaa hetkeksi pysähtyä miettimään mikä toiminnassasi tai päätöksenteossasi aidosti muuttuisi, jos kaikki tämä informaatio olisi käytettävissä?

Usein vastaukset ovat ajansäästöä manuaalisten työvaiheiden karsimisessa tai parempia dataan pohjautuvia päätöksiä, jolloin ollaan vielä kaukana datan oikeista mahdollisuuksista liiketoiminnassa. Mutta se ei tämän harjoituksen tarkoitus ollutkaan.

 

2. Kysymykset datalle

Askarteluharjoitusten jälkeen on hyvä pohtia, millaisiin kysymyksiin et juuri nyt saa vastausta? Tämä tietenkin mielellään täydentäen nykyistä dashboardiasi.

Jos näkökulmana on esimerkiksi asiakas tai jo syventynyt asiakkuus, voivat kysymykset olla seuraavanlaisia:

  • Mitkä asiakkaat kasvavat?
  • Mikä on asiakassuhteen keskimääräinen kesto ja arvo?
  • Mitkä ovat asiakaspoistuman taustalla olevat syyt?
  • Miten brändimme vertautuu suhteessa kilpailijoiden brändeihin?

Tai jos mietit sisäisiä toimintoja, niin seuraavat kysymykset saattavat kiinnostaa:

  • Miten optimoimme toimitusketjumme?
  • Mitkä toimittajat ovat epäluotettavimpia ja miksi? Miten iso riski toimittajan konkurssilla on omaan toimintaamme?
  • Mikä liiketoiminnan osa altistuu eniten petokselle?
  • Mitkä ovat suurimmat keskeiset laatuongelmat, joihin törmäämme?

Tai jos olet vaikkapa henkilöstöhallinnosta, niin mahdollisesti nämä askarruttavat:

  • Mitkä työntekijät ovat todennäköisiä eläkkeelle jääjiä tulevan viiden vuoden aikana? Mitä osaamista tuolloin poistuu? Miten se voidaan korvata?
  • Minkälaisten työntekijöiden kohdalla on suurin riski lähteä ensi vuonna?
  • Mikä on näiden todennäköisten lähtijöiden osaamisprofiili?
  • Mitkä ovat kustannustehokkaimmat rekrytointikanavat tiettyihin positioihin?

Näitä kun kerää riittävästi ympäri organisaatiota, alkaa olla kasassa melkoinen lista tulevaisuuden tarpeista. Myöhemmin tietopääomavaiheessa sitten ihmettelemme, miten ja mistä näihin kysymyksiin saadaan datat.

Jotta linkki organisaation visioon ja missioon pysyy vahvana, ei muuten huono ajatus, jos tunnistetut kysymykset liittyvät jollain tapaa liiketoiminnan tavoitteisiin tai liiketoimintastrategiaan.

 

3. Liiketoiminnan kehityskohteet

Seuraava taso on miettiä eräänlaisia kevyitä business case -aihioita datalle. Puhun mieluummin aihioista, sillä business case itsessään on paljon laajempi asia.

Olen usein käyttänyt ajatusten herättelyn apuna seuraavaa nelikenttää, jossa tarkastellaan niin organisaation sisäisiä, kuin ulkopuoleltakin löytyviä kehittämiskohteita. Kuvassa oleva harmaa kolmio jakaa nelikentän näihin kahteen osaan.

Jos miettii pari aikaisempia harjoituksia, meillä itse asiassa on jo melkoinen nippu tavaraa kahteen alempaan lokeroon. Jonkin verran myös siniseen, mutta veikkaanpa, ettei juurikaan vielä keltaiseen.

Liiketoiminnan kehityskohteita onkin hedelmällistä pohtia ennen kaikkea asiakaskokemuksen sekä datan monetisoinnin ja kasvun näkökulmista. Tähän ei mitään hopealuotia ole olemassa, mutta erilaisia ryhmätöitä tekemällä on päästy oikeinkin hyviin tuloksiin. Hyvä tekniikka on jalostaa myös jo tunnistettuja kysymyksiä, joihin ei saada vastausta.

Kehityskohteiden listaamisen lisäksi kannattaa tuoda esiin myös saavutettavat hyödyt tai esimerkit sekä miettiä arvioitua euromääräistä hyötyä tai sopivaa KPI-mittaria.

Otetaan esimerkki digitaalisen asikaskokemuksen puolelta:

  • Käyttötapaus: Ostokäyttäytymisen siirtäminen private label -tuotteisiin sekä tähän liittyvä kampanjoiden optimointi
  • Edut/esimerkit:
    • Tunnistetaan substituuttituotteet
    • Löydetään asiakkaalle tarjottavat kombinaatiot
    • Optimoidaan markkinointikampanjoita sisällyttämällä niihin omia “pirkkatuotteita”, jotka nostavat kokonaismyyntiä (kannibalisoimatta kuitenkaan muuta myyntiä)
    • Tuotesuosittelut verkkosivuilla ja verkkokaupassa
  • Eurot ja mittarit:
    • “Pirkkatuotteiden” lisämyynti €
    • Potentiaalisten säästöjen kommunikointi asiakkaalle
    • Ostoskorin maksimointi

Kasvun ja datan monetisoinnin kautta dataidentiteetin tunnistamiseen

Talouselämässä oli hiljattain mielipidekirjoitus dataidentiteetistä, joka kirjoittajien mukaan määrittelee datastrategian ytimen ja antaa suunnan erottautumiselle, jolla peitota kaikki kilpailijat.

Erityisesti kasvuun ja datan monetisointiin liittyviä asioita tunnistamalla muodostuu organisaation oma dataidentiteetti ja matka kohti dataohjautunutta organisaatiota ottaa melkoisen kasvuloikan.

Kasvuun ja datan monetistointiin liittyviä näkökulmia on paljon, kuten:

  • Miten käyttää dataa hyväksi organisaation kokonaisarvon kasvattamiseksi? (data-analytiikan lisääminen tuotteisiin, esim. älykellot, tai palveluihin, kuten Amazonin tuotesuosittelut)
  • Miten luoda lisäarvoa tai pääomaa datasta myymällä se takaisin asiakkaille tai muille kiinnostuneille osapuolille? (Nielsen myy markkinadataa, Foreca säädataa, Bisnode yritysdataa, Facebook kohdennettua mainontaa profiiliimme perustuen jne.)
  • Miten keksiä kokonaan uusia ansainta- ja liiketoimintamalleja, tuotteita tai palveluita datan ympärille? (joukouttamiseen liittyvät palvelut kuten Waze; data ja algoritmit energiatuotannon optimoinnissa jne.)
  • Miten virtualisoida arvoketjuja? (Uberit, Airbnbt, Alibabat ym.)
  • Miten kasvattaa markkinoita datan avulla? (esim. tekoälybuustattu verkkokaupparatkaisu, jolla otetaan globaalit markkinat haltuun)

Näistä syntyvät myös ne hedelmällisimmät business case -aihiotkin.

Arviointi ja arvottaminen

Äskeisiä harjoituksia kun tekee, niin ollaan (ja ollaan todellakin oltu) tilanteessa, jossa meillä on Excelissä satoja hienoja liiketoiminnan kehityskohteita, tarpeita ja ajatuksia datan hyödyntämiselle. Mitäs sitten? Miten eteenpäin?

Viimeistään tässä vaiheessa on paikallaan tehdä kevyttä priorisointia. Apuna voidaan käyttää nelikenttää, jossa akseleilla ovat liiketoimintahyöty sekä toteuttamisen helppous.

Liiketoimintahyödyllä tai -vaikutuksella haetaan ennen kaikkea taloudellista (kustannus tai tuotto) etua, jolloin kannattaa antaa myös kohteelle jonkinlainen euromääräinen arvio (tyyliin puhutaanko sadoista euroista vai sadoista tuhansista euroista).

Toteuttamisen helppous on astetta moninaisempi. Siihen liittyy muun muassa datan keräämisen helppous, saatavilla olevan datan laatu, teknologia, olemassa olevat kyvykkyydet tai sisäinen politikointi.

 

Lopuksi: funtsi hetki

Loppuun yksi tuore esimerkki (viime viikolta), jossa sinällään ison ja tärkeän jutun ratkaiseminen voi tuntua hienolta datan ja analytiikan avulla.

Haasteeksi asetettiin asiakaspalvelun ruuhkahuippujen ennustaminen. Ajatuksena tietenkin, että ennakoimalla paremmin ruuhkia ja varautumalla niihin omaa väkeä resursoimalla saavutettaisiin parempi asiakastyytyväisyys.

Kyseinen ennustemalli rakennettiin yhteen yritykseen. Perimmäinen ongelma ei kuitenkaan ollut toisinaan ruuhkautunut asiakaspalvelu, vaan asiakaspalvelun ruuhkahuippujen taustalla olevat syyt. Kuten kehnosti toimiva tuote, hintavirhe tai esimerkiksi manuaalinen vaihe prosessissa, joka tuli hoitaa asiakaspalvelijan kanssa.

Toisinaan siis kannattaa funtsia hetki ennen varsinaisen projektin aloittamista ja laittaa taustalla olevat asiat ensin kuntoon.

 

Seuraavaksi kehittämisen näkökulmia

Seuraavassa blogissa sukellamme kehittämisen näkökulmiin ja linjauksiin, joka toimii eräällä tapaa siltana datastrategian liiketoiminnallisemman sekä teknisen osuuden välissä.

Kehittämisen näkökulmissa luodaan linjauksia tulevaisuuden kehittämistyölle niin liiketoiminnan kuin teknologian näkökulmista menemättä vielä liian syvälle teknisiin yksityiskohtiin. Kehittämisen näkökulmissa pohdimme asioita kuten:

  • Millaisia liiketoiminnan tärkeimpiä tavoitteita tulee mahdollistaa?
  • Mikä on keskeisin (uuteen ratkaisuun vietävä) tietosisältö?
  • Mitkä ovat arkkitehtuurin reunaehdot ja tärkeimmät linjaukset (julkisen pilven käyttö, tietosuojavelvoitteet jne.)?

Eikä siinä vielä kaikki.

Sitä ennen avaan kuitenkin tarkemmin tässäkin blogissa vilahtanutta värikästä datapohjaisten business case -aihioiden nelikenttää ja kerron kustakin laatikosta konkreettisia asiakasesimerkkejä. Pysyhän kuulolla.




19.09.2019 / Pekka Tiusanen

What Do I Need and How Will It Fit?

What tools for AI/ML should be adopted in my organization and how to integrate advanced analytics in data architecture? Implementations are driven by business cases with various technological requirements. There are plenty of options in the market and different SaaS products have characteristic strengths and weaknesses. Existing architecture is a significant factor in decision making as well.

Limited Use of AI/ML within Reporting Tools

Although programming language support and AI/ML capabilities exist for reporting tools, there are certain limitations and hindrances to them. For example, writing R scripts in Tableau requires one to adopt a product-specific workflow and programming logic.

Reporting software can still be utilized to produce small-scale solutions. One of the common use cases for advanced analytics in reporting is key figure forecasting. URL-based integration also allows to embed AI/ML applications in reporting. For example, interactive Shiny apps ® dashboards can be included in Tableau reports. However, these are minimal implementations.

Shortcomings of Graphical AI/ML Tools

Graphical AI/ML utilities, such Azure ML Studio and RapidMiner, are a step up from reporting tools, but they still lack flexibility that is necessary to fulfil large-scale production requirements. Despite having support for R and Python, this is not the standard way to use graphical tools for AI/ML, which reflects to associated usability.

When it comes to training workloads, adding a powerful computation engine on top of other features has not been sufficient for RapidMiner to remain relevant. This is partially because the industry is taken over by end-to-end design and seamlessly conacatenated cloud products from source to consumption.

Finally, mere REST API model deployment without scalability is often not good enough for real-time implementations. On the contrary, IaaS-based solutions for scaling are too tricky to maintain for many organizations. Such solutions also require extra DevOps programming work compared to standardized cloud products for the purpose.

Microsoft Azure Cloud Platform for Scalability, Power and End-To-End Features

Cloud-based programming environments have invaded the AI/ML scene. These products provide calculation power, scaling features and end-to-end readiness. Model training may necessitate a true computation cannon to be swift enough. Furthermore, it is sometimes required for models to be consumed by X thousands of users with a minimal response time. Reasons to prefer such SaaS or MLaaS (machine learning as a service) solutions over custom applications include cloud platform compatibility, ease of maintenance and standardization.

AI tools

Note: Model training in Spark is available for Azure ML Service. However, Databricks a more comprehensive tool for AI/ML development work.

Azure Databricks – Where Data Science Meets Data Engineering

Demand for large scale training computation loads can be met by employing a Spark-driven tool called Azure Databricks. It supports role-based access control and allows data scientists, data engineers and other people involved to collaborate in advanced analytics projects. Developers can write R, Scala, Python and SQL in Databricks notebooks. The resulting AI/ML modelling pipelines can be scheduled by using Azure Data Factory. Version control is typically managed through Azure DevOps.

Note: Databricks is available in AWS too. 

Real-Time Scenario

Scalability requirements for a large user base and stable real-time performance can be addressed by adding Azure ML Service to the chain of sequentially employed cloud products. A typical way to do this would be deploying the solution to Azure Container Service. Kubernetes clusters are often employed in this scenario, but other deployment targets are supported too. Additional custom features can be built inside the web service.

Batch Scenario

If real-time responses are not required by the AI/ML business case, Azure building blocks can be used to generate a batch forecasting pipeline. This is a common scneario where Azure Databricks trains the AI/ML model and writes a batch of forecasts to a pre-defined table. Once again, Databricks workloads can be scheduled with Data Factory. The forecast table is consumed by a reporting tool, such as Microsoft Power BI.

Concluding Remarks

Although AI/ML development is business case driven, cloud environment for POCs and production solutions is also a strategic asset. Modern cloud-hosted solutions provide means to build production ready advanced analytics pipelines. They can also be extended with additional features stemming from business needs and technological landscape. Some of the early AI/ML adopters may have to shift from custom IaaS solutions towards end-to-end cloud platforms to ensure architecture viability in the long-term.


10.09.2019 / Mika Aho

IT-projekteissa tuppaa usein unohtumaan, että mitähän liiketoimintatavoitetta tässä oikein palvellaan. Yhtä lailla datastrategiaprojekteissa on alkuun ensiarvoisen tärkeätä ymmärtää organisaation strategia sekä tavoitteet ja mitä organisaatio oikeastaan haluaa saavuttaa datan avulla. Muutoin ollaan nopeasti sivuraiteilla.

Liikkeelle datasta vai liiketoiminnasta?

Toisinaan datan hyödyntämisen potentiaalia lähestytään olemassa olevan datan näkökulmasta. Esimerkiksi “meillä on tällaista asiakas- ja kuittidataa ja kertokaahan, mitä kaikkea siitä voisi saada irti?”.

Siitähän voi toki tehdä kaikenlaista (teoriassa siis, oikeassa elämässä harvemmin), kuten laskea asiakkuuden arvoa, ennustaa myyntiä, tehdä ostoskori- tai hintajoustoanalyysiä, arvoida kampanjoiden vaikutuksia tai vaikka optimoida mainontaa. Tärkeitä asioita kaikki, mutta ihan alkuun on hyvä nostaa lentokorkeutta hieman. 

Liiketoimintaprosessien mallintaminen

Eräänlainen välimalli on lähteä liikkelle liiketoimintaprosessien mallintamisesta ja ymmärtää millaista dataa ne kuluttavat ja toisaalta myös, millaista uutta dataa ne tuottavat. Tyypillisesti myös tunnistetaan päätietoryhmiä, joita voidaan puolestaan käyttää esimerkiksi löytämään keskeisin masteroitava tieto. Samoin ymmärretään, missä tietojärjestelmä(kokonaisuuksissa) datat lymyävät. Jos vielä missään.

Tärkeitä harjoituksia nämäkin, mutta johtavat helposti siihen, että metsä hämärtyy puilta. Riskinä on nimittäin mennä alla olevan nelikentän vasempaan alalaitaan ja ainoastaan virtaviivaistaa liiketoimintaprosesseja unohtaen muut laatikot.

Tällöin jäävät löytämättä ne oikean yläkulman moonshotit, jota datastrategia palvelee osana isompaa digitaalista transformaatiota. Säästetään siis prosessien mallintaminen datastrategiatyön myöhempiin vaiheisiin. Palaamme myös nelikenttään myöhemmin.


Liikkeelle visiosta, strategiasta ja tavoitteista

Ennen datastrategiaprojektia ainakin näistä asioista olisi hyvä olla tietoinen:

  • Yrityksen visio ja missio
  • Strategiset teemat seuraaville vuosille
  • Tulevaisuuden painopistealueet
  • Liiketoimintaympäristö (rakenteet, asiakkaat, kasvun moottorit ja jarrut, liiketoiminta-alueet, kilpailuasetelma, kilpailuetu jne.)
  • Keskeisimmät mittarit

Ja lisäksi ymmärrys:

  • Miten organisaatio on valmistautunut muuttamaan toimintaansa KUN distruptiivisia liiketoimintamalleja ilmaantuu alalle?
  • Mikä estää organisaatiota saavuttamasta visiotaan?
  • Miten data auttaisi asetettujen tavoitteiden (visio ja strategia) saavuttamisessa?

Ja vielä “operatiivisemmin”:

  • Miten datastrategia yhdistyy liiketoimintastrategiaan?
  • Miten datastrategia liittyy käynnissä oleviin ohjelmiin ja hankkeisiin?
  • Mitkä ovat datastrategiaprojektin odotukset ja tavoitteet?

Esimerkiksi strategisista teemoista nousee jo heti esiin tärkeitä asioita. Jos yhtenä strategisena teemana on asiakkaan kokeman arvon kasvattaminen, niin voi olla tarpeen miettiä miten asiakassuhdetta voidaan parantaa. Voidaanko esimerkiksi asiakkaan käyttäytymisestä sekä mieltymyksistä oppia lisää elinkaaren eri vaiheissa ja mitä teknologiaa sekä dataa tähän tarvitaan.

Kriittiset menestystekijät eivät ole huonoja nekään. Jos toimitustäsmällisyys on logistiikkafirman yksi kriittinen menestystekijä (toivottavasti on), johtaa tämä nopeasti keskusteluihin reittien optimoimisesta (tekoälyn avulla) ja tätä kautta toimintakustannuksien alentamiseen. Sitten ratkaistaan enää kauppamatkustajan ongelma.

Data on business casejen raaka-ainetta ja datan tulee palvella organisaation strategisia vaatimuksia. Liiketoimintastrategiasta johdettu datastrategia luo raamit ja ohjenuorat datan hallinnalle.

 

Data Awareness

Miten rajata datastrategiaprojekti?

Lopettelin edellistä blogia avoimella kysymyksellä datastrategiaprojektien rajaamisesta. Hieman kärjistäen on mahdollista tunnistaa kaksi ääripäätä:

  1. Holistinen datastrategia, jossa tarkastellaan laajasti datan mahdollisuuksia koko organisaatiossa tai sen osassa
  2. Prosessikohtainen datastrategia, jossa syvennytään tiettyyn liiketoimintaprosessiin, kuten liidistä maksuun tai teemaan, kuten jäsenien edunvalvontaan (eräällä etujärjestöllä)

Molemmissa on omat vahvuutensa ja ne palvelevat eri käyttötarkoituksia.

Holistinen datastrategia

Holistisemmassa datastrategiassa tunnistetaan usein valtava joukko erilaisia liiketoiminnan kehitysmahdollisuuksia, mutta ei mennä erityisen syvälle niihin. Priorisoinnin jälkeen nostetaan esille usein muutama business case, jolla taustalla piilevää toteutushanketta on helpompi myydä myöhemmin johdolle tai hallitukselle.

Tämä on hyvä vaihtoehto, jos fokuksessa on rakentaa esimerkiksi uusi data platform -ympäristö ja tarpeena on selvittää vaatimukset sekä saada pitkä lista liiketoiminnan kehitysaihoita jatkotyöstettäväksi.

Holistisen datastrategian kehittämisessä korostuu myös arkkitehtuurisuunnittelu eli miten data saadaan mahdollisimman järkevästi integroitua eri tietolähteistä, käsiteltyä, yhdistettyä, rikastettua ja jaettua sitä tarvitseville henkilöille, digitaalisille palveluille ja keskeisille sidosryhmille. Arkkitehtuurisuunnittelussa kuvataan tyypillisesti nyky-, tavoitetila- ja transitiovaiheen arkkitehtuurit.

Ei ole kerta eikä toinenkaan, kun tämän tyyppisessä harjoituksessa valmis materiaali on toiminut myös kilpailutusmateriaalina kuvaamassa hankittavaa kohdetta.

Prosessikohtainen datastrategia

Nimensä mukaisesti prosessikohtainen datastrategia keskittyy rajatumpaan kokonaisuuteen, usein liiketoimintaprosessiin. Esimerkiksi myynnin tai asiakkuudenhallinnan osalta se voisi tarkoittaa prosesseja kuten kontaktista liidiin, liidistä myyntimahdollisuuteen, myyntimahdollisuudesta tarjoukseen, tarjouksesta tilaukseen ja tilauksesta maksuuun.

Tällöin keskitytään kuvaamaan tarkemmin, millaista dataa prosessissa syntyy, millaista dataa prosessi kuluttaa, millaisia käyttökohteita datalle löydetään eri vaiheissa (esim. älykäs asiakasprospektointi, liidien scoraus, dynaaminen hinnoittelu, asiakaspoistuman mallintaminen jne.), mistä tarvittavat datat löytyvät (jos löytyvät vielä mistään) ja millaisilla tempuilla, teknologioilla ja rooleilla sekä osaamisilla ne saadaan hyödynnettäväksi.


Miten saada johtoryhmä kiinnostumaan datasta?

Eräs pitkän uran tehnyt ja isoa suomalaisyritystä rautaisella otteella johtanut vanhempi herrasmies totesi kerran työpajassa, että

En ole kymmeneen vuoteen tarvinnut dataa. Jos tarvitsen jotain, soitan talousjohtajalle.

Oletettavasti tällaisessa organisaatiossa dataohjautuneen kulttuurin rakentaminen on hieman hankalampaa. Jos liiketoimintajohto ei pidä dataa ja analytiikkaa tärkeänä, ei dataohjautuvaa organisaatiota voi luoda. Ja juurinkin kulttuurin rakentaminen tai muuttaminen on usein se vaikein asia, jotta datasta saisi jotain pidempiaikaista arvoa.

Toinen ääripää on pelifirmat, joissa datan hyödyntäminen on rakennettu jo geeneihin. Hyvässä asemassa ovat myös teknologiastartupit sekä diginatiivit yritykset, joiden liiketoimintamalli lähtökohtaisesti perustuu dataan (Google, Amazon, Alibaba, Facebook jne.). Itse asiassa myös isot yritykset ovat verraten hyvässä asemassa, sillä niillä on tyypillisesti mahdollista tehdä tarvittavia investointeja - hyvänä esimerkkinä usein mediassa näkyvä Stora Enso.

Entäpä jos olet keskisuuressa yrityksessä, joka ei ole millään tavalla teknologiaintensiivisessä liiketoiminnassa ja tekee vieläpä B2B-kauppaa?

Osaamisen ja ennakkoluulojen päivittäminen

Yleisesti ylin johto kyllä ymmärtää, että data (ja analytiikka) voivat muuttaa liiketoimintaa, mutta eivät välttämättä tiedä miten. Näin ollen on usein tarpeen avata datan mahdollisuuksia, joka tietenkin parhaiten onnistuu toimialalle sopivien esimerkkien avulla. Kun mieli on avoin datalle, on myös kehityskohteiden innovointi (tai pölliminen muilta) helpompaa.

Datalobbarin tai dataevankelistan löytäminen

Erityisen hyvässä asemassa olet, jos löydät organisaatiosi sisältä energisen muutosagentin, joka toitottaa datan tärkeyttä, luo kiinnostusta datan ympärille, verkottuu, kertoo miten data auttaa liiketoimintaa, rakentaa yhteistä tarinaa, toimii siltana liiketoiminnan ja IT:n välissä ja ennen kaikkea saa asioita tapahtumaan.

Ylimmän johdon esimerkki

Parhaat kokemukset onnistuneista (datastrategia)projekteista tulevat, kun ylin johto on sitoutunut. Muutoin tulokset jäävät helposti laihoiksi tai ainakin ilman rahoitusta. Kannattaa ottaa johtoryhmän jäsen(iä) mukaan tekemiseen.

Nopeat voitot

Lueskelin jostain, että sisäiset kilpailut ja Hackathonit ovat ylimmän johdon tuen jälkeen toiseksi tärkein asia dataohjautuneen kulttuurin rakentamisessa. Näiden kautta saadaan nopeasti ihan hyviä tuloksia, mutta on toki hyvä muistaa, että tuotannollistaminen voi viedä pitkäänkin.

Eurot ja älyttömät arvolupaukset

Loppupeleissä raha ja hyvä business case ratkaisevat. Mitäs jos miettisitkin jonkun älyttömän arvolupauksen, jossa data on avainroolissa.

Kymmenen esimerkkiä:

  1. Karsimalla kannattamattomat asiakkaat portfoliostamme, saamme viivan alle vuosittain 1 M€ enemmän ja vapautamme resurssejamme tuottavampaan toimintaan
  2. Vähennämme logistiikkakustannuksia 20 % paremmalla rekkojen / konttien täyttöasteella, pienemmällä hävikillä ja paremmalla toimitusvarmuudella
  3. Tiputamme käyttöpääoman määrää 20 M€ paremmalla varastojen / toimitusketjun ohjauksella
  4. Ensi vuonna dataan perustuvat palvelut tuovat 30 % liikevaihdostamme
  5. Nostamme yrityksemme valuaatiota 20 % datamme ja tehokkaan dataohjautuvuuden ansiosta
  6. Parantamalla verkkokauppamme tuotetietoja, saamme välittömän vaikutuksen asiakkaan pysyvyyteen ja ostohalukkuuteen
  7. Nostamme keskihintojamme 2 % paremman hinnoitteluanalytiikan johdosta - mikä on 2 M€/vuosi lisää omistajille tai investoitavaksi 100 M€ vaihtavassa yrityksessämme
  8. Parannamme hinnoitteluamme saadaksemme 2 % paremman katteen, joka tarkoittaa 40 M€ puhdasta tuottoa
  9. Vähennämme reklamaatioita 20 % paremmilla poikkeamien ennustamisella
  10. Vuoden loppuun mennessä data parantaa kolmen miljoonan loppuasiakkaamme kokemusta palvelusta päivittäin

Eivätkä nuo niin älyttömiä edes ole  -  näistä melkein kaikki on toteutunut ihan oikeastikin. 😉

Seuraavassa blogisarjan osassa sukelletaan liiketoiminnan kehityskohteiden tunnistamiseen teemalla business caset datalle. Tämä on myös yksi lempiaiheistani eli pysyhän kuulolla!




15.08.2019 / Mika Aho

”Kuulostaa liian juhlalliselta meille”, totesi eräs pörssiyhtiön johtaja käydessämme aiemmin tänä vuonna esittelemässä aiheeseen liittyvää tarjousta. Lopulta päädyimme nimeämään ehdotuksemme jotakuinkin ”mahdollisuuksia datan hyödyntämiselle liiketoiminnan kehittämisessä” ja fokusoiduimme auttamaan asiakasta keräämään ympäri organisaatiota olemassa olevat ideat ja innovoimaan uusia mahdollisuuksia eri liiketoiminnoissa. Ja paljon muutakin toki.

Digiä, dataa, strategiaa ja transformaatiota

Aihe ei ole mitenkään uusi. Toisinaan olemme puhuneet digitalisaatiosta, digitaalisesta transformaatiosta, digistrategiasta, digiloikasta, dataloikasta, digiagendasta, analytiikkastrategiasta tai vaikkapa tiedolla johtamisen esiselvityksestä. Laajemmissa kokonaisuuksissa yritys- tai kokonaisarkkitehtuurista. Asiassa on paljon erilaisia näkökulmia ja rakkalla lapsella on monta nimeä.

Itse olen päässyt tekemään tusinan verran erilaisia datastrategiaprojekteja asiakaskunnassamme eri toimialoilla muun muassa rahoitus-ja vakuutusalan sekä ravintola- ja hotellibisneksen kautta tukkukauppaan, valmistavaan teollisuuteen, ammattiliiton kiemuroihin ja rasvaiseen huoltobisnekseen. Kahta samanlaista projektia ei ole vielä tullut vastaan, mutta niitä kaikkia yhdistävät tietyt asiat.

Ei ehkä yllättävää, että samanlaisissa vaiheissa ja samalla toimialla olevat yritykset painivat paikoin samanlaisten ongelmien parissa. Myös analytiikan käyttökohteet ovat pääsääntöisesti samoja: kustannuksia syntyy ja tuottoja haetaan samantyyppisistä kohteista. Varastot pitäisi saada kiertämään nopeammin, laitteet huollettua ennakoivasti, asiakaspoistumaa vähennettyä, kysyntää ennustettua, tarjousten läpimenoa optimoitua tai vaikka syötettyä lehmille oikea määrä sapuskaa.

Asiakaskokemuksen parantaminen ja datan monetisointi tuovat kuitenkin hyviä erottumisen sekä kilpailukyvyn parantamisen paikkoja. Näistä lisää myöhemmin.

Uusi blogisarja datastrategiasta

Syksyn aikana avaan blogisarjassa, miten kehittää datastrategiaa omaan organisaatioon ja millaisia asioita kussakin vaiheessa kannattaa ottaa huomioon. Niin ikään availen onnistumisen edellytyksiä ja kokemusten kautta kertyneitä vastoinkäymisiä. Koitan saada myös asiakkaan äänen kuuluviin mahdollisimman paljon.

Blogisarja jakaantuu seuraavasti:

  1. Liiketoiminnan tahtotilan sekä vision ymmärtäminen (ja miten saada johtoryhmä kiinnostumaan datasta)
  2. Business caset datalle – dataan sekä analytiikkaan liittyvien liiketoiminnan kehitysmahdollisuuksien tunnistaminen
  3. Kehittämisen näkökulmien valinta – yksinkertaistaminen on kaunista
  4. Organisaation tietopääoman tunnistaminen – tänään ja tulevaisuudessa
  5. Modernin data-arkkitehtuurin suunnittelu – millaisiin pönttöihin ja rakenteisiin data kannattaa nykypäivänä tallentaa
  6. Gap-analyysin sekä kehityspolun rakentaminen – mitä huomioida ja miten mitata?
  7. Operationalisointi – data ja teknologia on helppoa, mutta ihmisten ja prosessien muuttaminen ei. Lopuksi kerron, miten asiat viedään osaksi arkea

Samantyyppisen ”viitekehyksen” kautta on juoksutettu käytännössä kaikki meidän datastrategiaprojektit, ainoastaan painopiste on ollut kussakin hieman erilainen.

Mitä sitten on datastrategia?

Kuten alussa tuli ilmi, moni termi kattaa saman asian ja puhun jatkossa systemaattisesti datastrategiasta. Mitään uutta ja ihmeellistä asiassa ei ole, mutta syystä tai toisesta se on kovinkin ajankohtainen eri puolilla.

Strategia sanana on sikäli hieman harhaanjohtava, että datastrategia ei suinkaan ole kertaluontoinen harjoitus tietyn päämäärän saavuttamiseksi, vaan sen pitäisi olla ennemminkin jatkuva prosessi tai toimenpidesuunnitelma, jota päivitellään rullaavan budjetin tavoin vaikkapa puolivuosittain. Toimintaympäristö muuttuu jatkuvasti ja riskinä on, että vaivalla tehty arvokas työ happanee (pöytälaatikkoon).

Eräs potentiaalinen asiakas kritisoikin, että hehän ovat jo aika pitkällä näissä asioissa ja datastrategia kuulostaa enemmänkin siltä, että lähdettäisiin aivan alusta liikkeelle. Näin ei tietenkään ole.

Datastrategiassa ei myöskään varsinaisesti tehdä liiketoimintastrategiaa, vaikka välillä sillekin tielle eksytään. Liiketoiminnan suunta ja tavoitteet tulevat enemmänkin annettuna. Niinkin on kuitenkin käynyt, että datastrategiaprojektin myötä organisaatio on lähtenyt valloittamaan uudenlaista asiakassegmenttiä ja markkinaa.

Eräällä tapaa datastrategian voi käsittää visioksi ja pelisuunnitelmaksi datan hyödyntämiselle liiketoiminnassa.

Samalla se on myös astetta teknisempi suunnitelma, jonka avulla parannetaan tapoja hankkia, hallita ja jakaa sekä hyödyntää dataa tulevien vuosien aikana tunnistettujen liiketoimintatarpeiden mukaisesti. Taustalla hieman huomaamatta rakennetaan organisaation tavoitteita tukevia dataohjautuneita kyvykkyyksiä ja valmennetaan organisaatiota muutokseen murrokseen.

Millaisiin tilanteisiin datastrategian oikein kehittäminen sopii?

Tarpeet ovat usein moninaisia. Alla muutama oikea esimerkki datastrategian kehittämisen tarpeista:

  • Halutaan kartoittaa nyky- ja tavoitetila sekä luoda etenemissuunnitelma
  • Ennakoidaan muutoksia ja valmistaudutaan muutokseen
  • Nostetaan digitalisaatioastetta
  • Harmonisoidaan liiketoimintaprosesseja
  • On pakko (esim. carve-out -tilanne, jossa tulee tunnistaa keskeisimmät tietopääomat ja -järjestelmät)

Tarpeet voivat olla toki tarkempiakin, kuten:

  • Tunnistetaan, mistä (datasta) on eniten hyötyä
  • Ymmärretään, mitä dataa prosessit kuluttavat ja millaista dataa ne tuottavat
  • Ymmärretään, miten data saadaan näkyväksi ja hyötykäyttöön oikeilla työkaluilla sekä teknologioilla
  • Tunnistetaan painotuksia, millä alueilla halutaan liikkua ja mihin panostaa
  • Saadaan tukea ja perusteluita valinnoille sekä business caseille
  • Tuetaan portolion hallintaa aina bisnesportfolioon saakka
  • Luodaan järkevät investointisuunnitelmat, joilla maksimoidaan ROI (datasta)

Yleistä kaikelle kuitenkin on, että datastrategiaa tyypillisesti tarvitaan liiketoiminnan käännekohdissa.

Datastrategia projektina

Aika monessa tekemisessä pätee Sarasvuon sanonta ”ei niin paljon kuin mahdollista, vaan niin vähän kuin on tarpeen”. Datastrategiaprojektitkaan eivät tee tähän poikkeusta.

Yleisesti olen huomannut, että asiakkaat hakevat nykypäivänä käytännönläheistä ja ennen kaikkea liiketoimintalähtöistä lähestymistapaa monimutkaisten sekä raskaiden viitekehysten sijaan, joita näkee erityisesti paljon yritysarkkitehtuurin (EA) kehittämisessä.

Ideaalisesti datastrategiaprojekti:

  1. Lähtee liiketoiminnan tarpeista ja tukee liiketoiminnan tavoitteita
  2. Osallistuttaa liiketoiminnan ja ylintä johtoa (tämä on avainasiassa projektin onnistumiselle)
  3. On käytännönläheinen ja itseään selittävä
  4. On helposti kommunikoitava organisaation sisällä
  5. On riittävän joustava mukautumaan muuttuviin liiketoiminnan ja teknologian tarpeisiin

Datastrategiaharjoitukseen on hyvä varata noin kolme kalenterikuukautta ja osallistuttaa muutamia kymmeniä henkilöitä organisaation sisältä. Tällöin saadaan suuntaviivat riittävän tarkalla tasolla selville, jonka jälkeen alkaa sitten raaka työ jalkauttamisen muodossa.

Seuraavassa blogissa kirjoitan tarkemmin liiketoiminnan tahtotilan ja vision ymmärtämisestä (ja miten saada johtoryhmä innostumaan datasta). Odotellessa voit miettiä, miten datastrategiaprojektia kannattaisi rajata – vai pitäisikö ollenkaan?




7.08.2019 / Lasse Ruokolainen

Exit only?

Erehdyin kommentoimaan LinkedIn:issä tohtoriopintoja käsittelevää postausta. Mainitsin, että jo opintojen alussa olisi hyvä miettiä väitöksen jälkeistä työllistymistä — suurin osa tohtoreista kun ei kuitenkaan voi saavuttaa vakituista, akateemista työpaikkaa, sillä seurauksella että lupauduin kirjoittamaan omista kokemuksistani liittyen siirtymiseen akatemiasta yritysmaailmaan. Tässä sitä tarinaa nyt sitten on, olkaapa hyvät (…itseppähän pyysitte :D).

Itse käytännössä ajauduin tutkijan uralle vuonna 2005, kun maisteriksi valmistumisen jälkeen ei ollut muuta hommaa tarjolla kuin tohtoriopiskelijan paikka tutkimusryhmässä (nälkäpalkalla sekin). Ratkaisu tuntuikin oikein hyvältä, siihen asti kunnes ohjaajani kuoli yllättäen 2007 (arvatenkin kroonisen stressin ja alkoholin yhteisvaikutuksesta). Sain kuitenkin motivoitua itseni jatkamaan ja valmistuin erinomaisella arvosanalla 2009 neljän vuoden rehkimisen päätteeksi. Valmistumisen jälkeen sain melko hyvin sekä rahoitusta että tulosta (tähän päivään mennessä yli 60 tutkimusartikkelia) ja tulevaisuus näytti valoisalta (hetkittäisiä motivaatio-ongelmia toki oli, mutta se lienee ihan tavallista), aina vuoteen 2017 asti.

Mitä sitten tapahtui? Olin työskennellyt jo pari vuotta Akatemiatutkijana (viisivuotinen rahoitus) ja kaiken piti olla mallikkaasti. Aloin kuitenkin ymmärtää, että jotta minulla olisi minkäänlaisia mahdollisuuksia saada vakituinen pesti yliopistolta, olisin todennäköisesti joutunut tekemään merkittäviä uhrauksia yksityiselämässä, joita perheeni tuskin olisi kestänyt. Tein siis varsin kipeän päätöksen luopua tutkijan urastani ja hakeutua ns. “oikeisiin töihin”. Pitkän märehtimisen jälkeen lopullisen päätöksen tekeminen oli todella helpottavaa.

No, tässä kohtaa saattaa herätä kysymys, mikä on kohta nelikymppisen, virttyneen akateemikon kurssi kilpailluilla työmarkkinoilla? Ei välttämättä kovinkaan hyvä; kaikki riippuu omista taidoista, kokemuksesta ja myös osittain persoonasta. Jos on yleistettävää osaamista ja on vielä kaiken lisäksi “hyvä tyyppi”, ei ongelmaa välttämättä ole ollenkaan. Ottamatta kantaa siihen miten hyvä tyyppi olen, omia osakkeita on eittämättä nostanut pitkäjänteinen panostus analytiikkataitoihin. Jo maisteriopinnoista lähtien olen ollut kiinnostunut data-analytiikasta ja siihen liittyvästä ohjelmoinnista (aiheesta voi lukea lisää aiemmista blogeistani).

Kun olin päättänyt vaihtaa alaa ja tunsin että “datatieteily” (data science) voisi olla “se mun seuraava juttu”, aloin myös määrätietoisesti opiskella koneoppimisen teoriaa ja käytännön soveltamista R:llä ja Python:illa. Noin puolen vuoden aktiivisen itseopiskelun ja työnhaun päätteeksi pestauduin Louhia Analytics -konsulttifirmaan, missä pääsinkin heti hyödyntämään sekä aiempaa että tuoreempaa kokomustani ohjelmoinnista ja analytiikasta sekä myös opettamisesta. Samoihin aikoihin, eräs vastavalmistunut tohtori, jonka ohjausryhmässä satuin olemaan, teki samanlaisen loikan toiseen it-konsultointitaloon. Olen myös kuullut vastaavaa pohdiskelua muilta entisiltä kolleegoilta, jotka vielä sinnittelevät yliopistolla.

Tästä voi ehkä saada sen kuvan, että siirtyminen yritysmaailmaan on ollut suhteellisen kivutonta. Ollakseni rehellinen on pakko tunnustaa, että näin ei kuitenkaan ole ollut. Olen toki saanut työskennellä juuri niiden asioiden kanssa, joista oikeasti nautin yliopistolla (analytiikka, koodaus ja opettaminen), eikä ole tarvinnut stressata toiminnan rahoittamisesta. Toisaalta, työ ei enää samalla tavalla herätä intohimoja, eikä ole enää yhtä mielekästä kuin esimerkiksi viimeisimmät tutkimukseni allergioiden yhteydestä elintapoihimme.

Työhön on myös asennoiduttava hyvin eri tavalla, tehtäviin ei voi käyttää loputtomasti aikaa, vaan budjetin — joka useimmiten mitataan työtunteina — puitteissa pitää saada valmista aikaiseksi. Ajankäytön optimointi voi olla hyvinkin stressaavaa ja juuri akateemista vapautta tuleekin ehkä eniten ikävä entisessä työelämässä. Kolikon kääntöpuolena on toki se, että siinä missä akateeminen tulosvastuu itselleen pistää työskentelemään myös “työajan” ulkopuolella, on vapaa-aika nykyään ihan oikeasti vapaa-aikaa. Olen nyt ensimmäistä kertaa elämässäni viettänyt kesälomaa koskematta työläppäriin; todella rentouttavaa!

Siinä missä tutkijana joutui pitämään kynsin hampain kiinni kiihtyvällä vauhdilla etenevästä tieteen etulinjasta, on konsulttina pakko jatkuvasti päivittää osaamistaan muuttuvassa teknologiaympäristössä. Ammatillisessa mielessä olenkin oppinut valtavasti suhteellisen lyhyessä ajassa, sekä datan käsittelystä, analytiikasta että ohjelmoinnista, pilviympäristöistä ja integraatioista puhumattakaan. Aiemmin olin siinä uskossa, me yliopistolla työskentelevät tutkijat olimme yhteiskunnan huippu-osaajia. Nyt myönnän avoimesti olleeni väärässä, ainakin mitä tulee digi-teknologiaan. Yksi merkittävä osaamistarpeita lisäävä tekijä ainakin omalla kohdalla on ollut asiakasprojektien diversiteetti, joka on ollut osaamisen näkökulmasta paljon laajempaa kuin menneiden tutkimusprojektien aiheet, siitä huolimatta että minulla on ollut epätyypillisen laaja tutkimuskenttä.

Blogin otsikko (Exit only?, joka ainakin väitetysti oli tatuoituna erään edesmenneen “kovanaaman” alaselkään) pitää sisällään varoituksen niille, jotka mahdollisesti harkitsevat vaihtoehtojaan akateemisen uran ja tyypillisemmän “kahdeksasta neljään”  -työn välillä (tokihan sitä moni painaa enemmänkin duunia, mutta monesti, toisin kuin esim. yliopistolla, tästä maksetaan erilliskorvaus). Näkökulmasta riippuen tohtorikoulutuksen ensisijainen tarkoitus voi olla pätevöittää tutkijan työhön (opiskelijan näkökulma), tarjota halpaa, uupumatonta työvoimaa tutkimusprojekteille (tutkimusryhmän johtajan näkökulma) tai tuoda rahaa organisaatiolle (esim. yliopiston rehtorin/yksikön johtajan näkökulma).

Kun pätevyys sitten on saavutettu, tutkijan uralla pysyminen vaatii jatkuvaa ponnistelua, pitäen sisällään oman alan kehityksen seuraamista, tutkimusmäärärahojen ja oman palkan haalimista eri lähteistä, opettamista, yhteiskunnallista vaikuttamista ja tietenkin valtavasti uuden, julkaistun tutkimustiedon tuottamista. Vaikka tämä urakka voi olla erittäin mielekästä, motivoivaa ja palkitsevaa, se on myös henkisesti erittäin kuluttavaa sekä tutkijalle itselleen että tämän perheelle. Koska tutkijan työ on niin vaativaa (sillä edellytyksellä että haluaa pysyä leivän syrjässä kiinni), tästä akateemisesta oravanpyörästä poistuminen on useimmiten lopullista; kovaa vauhtia liikkuvaan tiede-junaan takaisin hyppääminen vaatii valtavasti ponnisteluja.

Mitkä on nyt fiilikset, kun konsulttiuraa on takana puolitoista vuotta on nostalgia tutkijan työtä kohtaan suurimmalta osin hälvennyt. Olen yrittänyt olla pahemmin katsomatta taaksepäin ja parhaani mukaan koittanut hyväksyä, että sille uralle ei ole enää palaamista. Koen olevani onnellisempi kuin aiemmin, työperäistä stressiä on paljon vähemmän ja minulla on paremmin aikaa olla läsnä kotona. Työelämän epävarmuutta ei yksityisellä sektorillakaan pääse täysin pakoon, mutta silti uskoisin että riski jäädä tyhjän päälle on huomattavasti pienempi. Ainakin tämän perheenisän vaakakupissa se painaa enemmän kuin akateeminen vapaus ja oman tutkimusagendan edistäminen. Toivottavasti tästä avautumisesta on apua teille, jotka mietitte siirtymistä akateemisesta maailmasta yksityiselle sektorille.


20.02.2018 / Ville Niemijärvi

Meidän blogissa on ollut melkoista radiohiljaisuutta.

Kaverit ovat olleet rintamalla, pari soluttautunut syvälle vihol… asiakkaan organisaatioon. On tehty onneksi tilalle pätevämpiä rekryjä ja se yksi markkinointiosaston hörhö on kadonnut startup-maailmaan.

Nyt se on kuitenkin raahattu autotallista toimistoon tekemään jotain osakkuutensa eteen.

Markkinointiin saatiin myös uutta verta kun Jyväskylän toimistolla aloitti Tia.

Nyt lähdetään yhdessä Tian kanssa piristämään meidän (sisältö)markkinointia ja somepresenssiä. Tavoitteena on alkaa taas säännöllisesti tuottamaan blogeja, vlogeja mutta myös podcasteja. 

Lisäksi tekemään asiantuntijoiden haastatteluja, niin omien kuin vieraiden.

Aiheina koneoppiminen, tiedolla johtaminen, digitalisaatio laajemminkin.

Tietovarastoinnit ja business intelligence on jäänyt meillä vähemmälle. Näitäkin käsitellään mutta vain silloin kun tavoitteena on nuo edellä mainitut.

Mitä sisältöä odottaisit Louhian blogissa/vlogissa/podcastissa?

Kysymys meidän blogin seuraajille: minkälaista sisältöä ja mitä aihealueita toivoisit kuulevan? Kun haastatellaan meidän omia osaajia tai jutellaan alan muille asiantuntijoille.

Kiinnostaisiko esimerkiksi, jokin näistä:

  • algoritmien eroista ja vahvuuksista
  • työvälineiden, kielien ja alustojen eroista ja vahvuuksista (esim. R vs Python)
  • how-to-do esimerkkejä eli rautalankamalli esim. hinnoittelun optimointiin tai kysynnän ennustamiseen
  • bloopers eli miten hommat ei suju kuin strömsöössä
  • business case-esimerkkejä meiltä ja maailmalta
  • arkkitehtuureista
  • vaadittavasta osaamisesta, data scientistien rekrytoinneista ja osaamisen kasvattamisesta
  • miten yritys X on päässyt digitalisaatiossa pisteestä X pisteeseen Y (tai luonut uuden dataan pohjautuvan liiketoimintamallin)
  • strategiatason humppaa
  • jotain muuta, mitä?

Vaiko ylätason diipadaapaa miten tekoäly pelastaa kaikki ja olet kusessa jos et jo maksa konsulttiarmeijalle siitä, että se kertoo sinulle itsestään selvyyksiä tietämättä miten niitä juttuja oikeasti tehdään?

Kerro, kommentoi, pistä mailia. Olisi hienoa tuottaa sellaista sisältöä jota oikeasti halutaan kuulla ja josta on teille arvoa.

Nyt palautetaan kuitenkin Louhian blogiin ja muihin kanaviin hieman vipinää pyttyyn. Monikanavaisesti, säännöllisesti ja jos autatte meitä kommentoimalla, niin myös lukijoille arvoa tuottavasti.

Koska tässä kirjoituksessa on ollut pari sotaista kielikuvaa, otetaan vielä lainaus Winston Churchillin kuuluisasta puheesta, jossa hän puhuu juuri monikanavaisesta markkinoinnista.

“We shall go on to the end. We shall fight in France, we shall fight on the seas and oceans, we shall fight with growing confidence and growing strength in the air…

We shall defend our Island, whatever the cost may be; we shall fight on the beaches, we shall fight on the landing grounds, we shall fight in the fields and in the streets, we shall fight in the hills; we shall never surrender…”


28.11.2017 / Mika Aho

Järjestämme yhteistyössä Tampereen kaupungin 6Aika avoin data -hankkeen kanssa Data-analytiikka liiketoiminnassa -koulutuksen yrityksille.

  • Aika: Keskiviikko 13.12.2017
  • Paikka: Tampereen yliopisto, Linna (Kalevantie 5, 33100 Tampere)
  • Hinta: Koulutuksen arvo on 700 euroa, johon yritys voi hakea de minimis -tukea 6Aika avoin data -projektilta. Yritykselle ei jää tuen myöntämisen jälkeen kustannuksia koulutuksesta.
  • Ilmoittautuminen: Eventbriten kautta

Koulutuksen tavoitteena on kertoa data-analytiikasta, avoimesta datasta ja millaisia asioita ne mahdollistavat liiketoiminnan kehittämisessä ja uuden liiketoiminnan rakentamisessa.

Kerromme lisäksi, miten tiedolla johtaminen, data ja analytiikka muuttavat johtamista. Opit myös ymmärtämään, miten tekoäly- ja koneoppimisratkaisut voisivat hyödyntää sinun liiketoimintaasi.

Koulutuspäivän ohjelma ja aikataulu

8.30 – 9.00 Aamukahvit
9.00 – 10.15 Tiedolla johtamisen avainasiat
10.15 – 10.30 Kahvitauko
10.30 – 11.30 Data-analytiikan ja avoimen datan hyödyntäminen liiketoiminnassa
11.30 – 12.15 Ruokatauko
12.15 – 13.00 Mitä ovat tekoäly- ja koneoppiminen?
13.00 – 14.00 Johdon näkökulma data-analytiikkaan
14.00 – 14.15 Kahvitauko
14.15 – 15.30 Asiakasanalytiikka, koneoppimista omalla koneella
15.30 – 16.00 Loppukeskustelu ja yhteenveto päivästä

Hyödyt

  • Tunnistat, missä vaiheessa oma organisaatio tai toiminto (esim. myynti) on tiedolla johtamisen kypsyydessä
  • Ymmärrät, miten erilaisia datalähteitä (esim. avoin data) voi hyödyntää liiketoiminnassa ja mitä niiden käytössä tulee huomioida
  • Ymmärrät, miten tekoäly- ja koneoppimisratkaisut toimivat ja niiden vaikutuksen liiketoimintaan
  • Pääset tekemään hands-on harjoituksia data-analytiikassa (asiakaspoistuman ennustaminen ja segmentointi)

Kouluttajat

Kouluttajina toimivat Louhian kokeneet konsultit Mika Aho ja Mika Laukkanen.

Ilmoittautuminen

Voit ilmoittautua koulutukseen Eventbriten kautta.

Kysymyksiä voit laittaa jommalle kummalle Mikalle (mika.aho@louhia.fi tai mika.laukkanen@louhia.fi)

Kannattaa ilmoittautua ajoissa, sillä paikkoja on vain rajallinen määrä.


16.11.2017 / Ville Niemijärvi

Kun olemme tehnyt data Science / machine learning -ratkaisuja asiakkaille, saadaan niistä usein kaksi tuotosta:

  1. välitön liiketoimintahyöty
  2. oppiminen ja oivallukset

Usein asiakas lähtee hakemaan ensimmäistä eli pikavoittoja mutta isommat hyödyt ovat usein jälkimmäisessä eli organisaation oppimisessa.

Välitön liiketoimintahyöty tuo lisämyyntiä tai vähentää kuluja heti

Välitön liiketoimintahyöty (eräs kollega kutsui tätä nimellä: immediate business healthcheck) tarjoaa tässä ja nyt ratkaisun liiketoimintaongelmaan. Hyödyt voidaan usein realisoida heti.

Esimerkiksi silloin kun ennustimme isolle teleyhtiölle ja vakuutusyhtiölle heidän asiakaspoistumaa (churn), pystyttiin asiakkaiden poistumaan puuttumaan välittömästi ja säästöt saatiin pian analyysin jälkeen.

Tai kun ennustimme turvapaikanhakijoiden määriä tuleville kuukausille loppuvuonna 2015, ennustimme vanhusten kotihoidon tarvetta tai vähittäiskaupan myyntejä ja optimoimme varaston kokoa. Analyysin pohjalta pystyttiin toimimaan välittömästi.

Oppiminen ja oivallukset kehittävät liiketoimintaa

Riippuen algoritmista ja menetelmästä mitä hyödynnämme, voidaan tuloksena saada myös syyt seurausten takana. Eli pystymme selittämään ilmiöitä.

Tällöin organisaatio oppii ja oivaltaa. Ja pystyy kehittämään toimintaansa tämän pohjalta.

Organisaation oppiminen ja oivallukset ovat olleet esimerkiksi sitä kun olemme ennustaneet syitä miksi sen teleoperaattorin asiakkaat ovat poistumavaarassa ja tämän pohjalta asiakas on oivaltanut miten poistuma estetään ja itseasiassa voidaan myydä vielä lisää.

Tai kun teollisuusasiakas on oppinut meidän avulla minkälainen tarjous menee todennäköisin läpi asiakkaalle. Tämä oppi on jalkautettu myyjille, jotka ovat voineet toistaa voittavan tarjouksen uudelleen ja uudelleen ja uudelleen.

Machine learning mallinnus kertoo usein todennäköisyyden jollekin ilmiölle mutta myös syyn ilmiön taustalla.

Haluatko pikaseksiä vai oppia rakastelemaan hyvin?

Kun puhutaan AI:stä (tekoäly), puhutaan usein myös syväoppimisesta (deep learning). Usein kyseessä on neuroverkkoja, jotka opetetaan löytämään isosta läjästä kuvista esimerkiksi kasvoja.

Ja kyllähän ne oppivat.

Mutta oppiiko organisaatio? Oppiiko ihminen?

Sillä todellisuudessa neuroverkot ovat enemmänkin “blackboxeja”,  mustia laatikoita, joiden sisään ei pääsekään. Saamme kenties tarkan ennusteen tai kätevän softan, joka tietää onko kuvassa ihminen vai koira, mutta emme saa selville syytä miksi.

Toisin sanoen algoritmi oppii, neuroverkko oppii, AI oppii, mutta organisaatio ei välttämättä opi.

Mutta kun käytämme muita, kenties vähemmän trendikkäitä menetelmiä, esimerkiksi logistista regressiota, saamme lopputuloksena myös tulkinnan.

Miksi näin tapahtui? Miten tekijä X vaikuttaa ilmiöön Y?

Tämä tuotos voidaan opettaa ihmiselle. Myyjille, tuotekehitykselle, asiakaspalvelijoille. Tai voimme upottaa regressiokertoimen tai ehtolausekkeen hyvin yksinkertaisesti osaksi johdon dashboardia tai 3. osapuolen softaa, vaikka suoraan ERP:iin.

Tällöin saamme sekä välittömän liiketoimintahyödyn, että organisaation opin ja oivallukset.