29.11.2013 / Antti Ollikainen

Analytiikan menestyksekkäässä käytössä liiketoiminnan ohjaajana piilee lukuisia haasteita, joista yllättävän harva liittyy itse analytiikan tekniseen toteuttamiseen. Analyyttiselle tekemiselle esitetyt kunnianhimoiset ROI-laskelmat eivät toteudu, koska analytiikkaa hyödyntävien organisaatioiden toiminta ja koordinointi on puutteellisesta. Tässä käydään läpi top 6 isointa sudenkuoppaa karkeassa tärkeysjärjestyksessä. Esimerkkinä käytetään pankkialaa, mutta haasteet ovat toimialasta riippumattomia.

1) Liiketoiminnallinen tavoite puuttuu

Analytiikkaa tehtäessä on aina pidettävä mielessä, mitä liiketoiminnallista tavoitetta ollaan ratkaisemassa. Miksi? Koska tämä tavoite ohjaa kaikkea analyyttistä tekemistä ja ratkaisee viime kädessä sen, miten eteen tulevat pulmatilanteet ratkotaan tai ovatko ne pulmatilanteita ollenkaan. Hyvä liiketoiminnallinen tavoite on

• selkeä; ei vieraita termejä
• yhteisesti sovittu ja hyväksytty.

Jos tätä projektin suunnanosoittajaa ei ole määritelty tai se on tehty liian ylimalkaisesti, on tiedossa lukuisia ongelmia, joihin puhtaasti tilastotieteelliset mittarit eivät voi tuoda vastausta. Tähän kategoriaan kuuluvat mm. loppumattomat kädenväännöt riittävästä ennustetarkkuudesta: jos liiketoiminnallinen tavoite täyttyy, on malli riittävän hyvä. Jos ei liiketoiminnallista tavoitetta ole määritelty, ei kysymykseen voida edes vastata.

Oma ongelmansa on se, että miten projekti voidaan määritellä, jos ei tiedetä mihin kysymykseen sen on määrä vastata? Vastaavasti miten projekti voidaan hyväksyä, jos ei tiedetä mihin kysymykseen se vastasi?

Monesti projektin alussa on hirveä kiusaus päästä tekemään. Projektiryhmän tunnelmat tiivistyvät ajatukseen ”Tehdään nyt vain äkkiä jotain, mitä me tässä odotetaan”. Kuitenkin on hyvä pysähtyä miettimään, että mihin viime kädessä tähdätään: tehdäänkö lopulta parempia päätöksiä, tuleeko myyntiä enemmän, pienenevätkö kustannukset, nouseeko asiakastyytyväisyys… Projektin alussa tähän käytetty aika ja vaiva maksavat itsensä moninkertaisesti takaisin. Ja usein liiketoiminnallisen tavoitteen saavuttaminen tarkoittaa myös tyytyväistä asiakasta.

2) Analytiikan tulokset ovat vajaakäytössä

Hämmästyttävästi analytiikan toiseksi suurin sudenkuoppa ei suinkaan liity itse analytiikkaan vaan se on analytiikan tulosten unohtaminen analyytikon koneelle. Kuitenkin kun hänen työnsä on tehty, on analytiikasta oikeastaan toteutunut vasta kustannuksia. Suurimmat analytiikan hyödyt – tavoitellut säästöt tai lisäansiot – puolestaan toteutuvat kun sen tulokset otetaan yrityksessä laajamittaiseen käyttöön tuotantoympäristössä ja niillä aletaan ohjata yrityksen liiketoimintaa.

Esimerkiksi pankit ennustavat analytiikalla mm. uusien asiakkaidensa riskiä jättää laina lyhentämättä (niin sanottu PD eli probabilty of default –tunnusluku). Tässä tapauksessa pankki ohjaa analytiikalla liiketoimintaansa siten, että se jättää liian riskialttiin lainan myöntämättä tai marginaalia voidaan korottaa kattamaan isompi riski.

3) Mallien osumatarkkuutta ei seurata

Analytiikan sudenkuoppa numero kolme on se, että vaikka analyyttisia malleja olisi otettu ohjaamaan liiketoimintaa, ei seurata miten osuvia mallit ovat –analyyttinen mallihan alkaa vanhentua niin pian kuin se on saatu valmiiksi. Tällöin yritys joutuu arvailemaan asiaa ja esimerkiksi tekemään mallinnuksen määrävälein kalliilla uusiksi, ihan vain varmuuden vuoksi. Toinen jopa huonompi tilanne on se, että käytössä on vanhentuneita epätarkkoja malleja, koska ei ole tietolähdettä, joka asian kertoisi.

Oikeastaan kyseessä on varsin maanläheinen raportointihaaste: verrataan sitä, mitä malli ennusti siihen, mitä oikeasti tapahtui. Pankkipuolella esimerkkinä olisi seurata ja verrata minkä lainojen ennustetaan jäävän lyhentämättä ja mitkä lainat sitten oikeasti jäävät lyhentämättä. Vakiomuotoisilla osumatarkkuuden raporteilla säästytään myös työläiltä ja virhealttiita erilliskyselyiltä kantaan, kun selvitetään manuaalisesti missä mennään.

On jopa mahdollista lähettää automaattihälytys analyytikon sähköpostiin, kun etukäteen asetettu osumatarkkuuden minimiraja alittuu (esim. mainitussa pankkiesimerkissä PD-mallin auc putoaa alle 0,75:n). Näin ideaalissa tilanteessa mallinnusta tehdään juuri silloin kuin tarvitaan eikä yhtään enempää.

Kokonaan oma kysymyksensä on se, että yritys voi käyttää joitakin osumatarkkuuden raportteja oman liiketoimintansa suunnitteluun. Esimerkkimme pankki voi valita missä kohtaa ROC-käyrää se haluaa liiketoimintaansa tehdä: hyväksyäkö iso joukko lainoja sillä riskillä että niistä osa jää lyhentämättä vai valikoidako pienempi joukko pienemmän riskin asiakkaita.

4) Analytiikan historiointi puuttuu

Monesti analytiikkaa harjoittavilta yrityksiltä puuttuu analytiikkamuisti, koska ne eivät talleta mitään mallinnuksen työvaiheita, tuloksia tai aineistoja. Tämä voi johtua siitä, että asian tärkeyttä ei tiedosteta tai siitä, että yrityksellä ei edes ole sellaista analytiikka/BI –kantaa, johon tiedot voisi tallettaa – tai kannasta puuttuvat historioivat rakenteet.

Laajimmillaan (esimerkiksi juuri pankin PD-mallin osalta) voidaan historioida seuraavat analytiikkatekemistä koskevat tiedot:

• Vanhojen mallien historiointi: mitä malleja on ollut käytössä ja milloin? Kuka mallit on tehnyt?
• Vanhojen mallinnusdatojen historiointi: mihin saadut mallit ja tulokset ovat perustuneet?
• Vanhojen pisteytysdatojen historiointi: mitä dataa mallit ovat saaneet inputtina?
• Vanhojen pisteytystulosten historiointi: mitä tuloksia on malleilla saatu?

Ilman näitä tietoja mallinnustyö saattaa kiertää kehää ja pyörää keksitään aina uudestaan –ei havaita, että uudelta tuntuva idea onkin jo ollut käytössä. Asian kuntoon laitto tuo huimasti tehoa mallinnukseen, kun voidaan keskittyä uusien tekniikoiden ideointiin. Ja jos vielä on talletettu kuka mallinsi ja milloin, voi analyytikko kilauttaa kaverille ja kysyä täsmävinkkejä kun tuttu kaverihan on aiemmin päätynyt aivan vastaavaan mallinnustekniikkaan.

5) ETL-prosessit (datan lataus ja muokkaus) ovat synkronoimatta

Jos pankkiesimerkin analyytikko ei koskaan saa koneellensa kulutusluottoja sisältävää dataa, on turha odottaa, että hänen tekemäänsä mallia voitaisiin kovin hyvin kulutusluottoihin soveltaa. Ohjeena voisikin todeta: poimi mallinnukseen käyttämäsi data samoilla säännöillä ja rajauksilla kuin data, johon haluat mallinnuksen tuloksia soveltaa. Neuvo vaikuttaa niin päivänselvältä, että herää luonnostaan kysymys, että miksi se pitää mainita.

Ongelma syntyy siitä, että monesti nämä kaksi datankeruuta on jaettu yrityksissä eri osastoille. Pankkiesimerkissä voi tilanne olla se, että IT-osasto hallinnoi ETL-työkaluilla datavirtaa, johon analyytikon malli olisi tarkoitus upottaa riskiarviota tuottamaan. Analyytikko puolestaan työskentelee liiketoiminnan puolella ja hakee mallinnusdatansa sooloprojektina itse kirjoitetuilla kyselyillä eri kantoihin. Ilman aktiivista koordinointia ja oikein rakennettua analytiikka-arkkitehtuuria nämä eivät kohtaa ja mallinnuksen osumatarkkuus on suotta heikompi kuin olisi mahdollista. Huonoimmillaan jokin erityisryhmä putoaa mallinnusprosessin ulkopuolelle kokonaan. (Koordinointia ei ainakaan edesauta se, että monesti yritykset ovat sälyttäneet analytiikan rasitteet ja kustannukset IT-osastolle kun taas liiketoimintaosasto tuottaa ja näkee aitiopaikalta tekemänsä analytiikan hyödyt.)

6) Hirttäännytään väärään tarkkuusmittariin

Analytiikan osumatarkkuutta voi ja pitääkin arvioida sekä tilastotieteellisin että liiketoiminnallisin mittarein. Joskus yrityksillä iskee kuitenkin rimakauhu kun mallinnus alkaa tulla valmiiksi: jumitutaan vaatimaan analyytikolta jollain tilastotieteellisellä mittarilla arvioituna aina vain tarkempia malleja vaikka jo aikaa sitten on saavutettu liiketoiminnallisesti riittävän hyvä tarkkuustaso. Oikea toimenpide on tällöin mallin välitön tuotantoympäristöön vienti, koska lisätarkkuuden metsästykseen käytetty aika on suoraan pois siitä ajasta, jonka malli voisi tuottaa tulosta osana toistuvia eräajoja.

Päinvastainen tilanne syntyy, kun ihastutaan jonkin yksittäisen tilastotieteellisen mittarin tuomaan positiiviseen tarkkuustietoon, mutta unohdetaan liiketoiminnallinen tavoite, jota varten malli on tehty. Pankkiesimerkin PD-mallinnuksessa voi tulla eteen tilanne, jossa mallin tarkkuus (accuracy) on 95%, mikä normaalisti tarkoittaa huippuluokan osumatarkkuutta. Kuitenkin jos datassa on erittäin vähän lyhentämättä jääneitä lainoja, voi olla että tuo viiden prosentin epätarkkuus syntyy juurikin niiden väärin ennustamisesta. Yksittäisellä tilastotieteellisellä mittarilla tarkasteltuna loistavasti toimiva malli onkin onneton ennustamaan juuri sitä asiaa, joka liiketoimintaa kaikkein eniten kiinnostaa. Tällaisen mallin tuotantoympäristöön vienti on melkoinen virhe; oikea toimenpide on parantaa lyhentämättömien lainojen tunnistusta.

Kuusi ohjetta menestyksekkääseen analytiikkaan

Yhteenvetona voidaan todeta, että jos yrityksesi harjoittaa tai tavoittelee laajamittaista analytiikkaa, jolla ohjataan liiketoimintaa, pidä huoli seuraavista asioista:

1) Määrittele analytiikalle liiketoiminnallinen tavoite.
2) Vie analyyttiset mallit tuotantoympäristöön liiketoimintaa ohjaamaan.
3) Seuraa mallien osumatarkkuutta.
4) Historioi analytiikkatekemisesi.
5) Synkronoi ETL-prosessisi.
6) Seuraa laajasti sekä liiketoiminnallisia että tilastotieteellisiä mallin hyvyyden mittareita.

Näin toimimalla varmistat maksimihyödyt analytiikasta.


29.11.2013 / Guest Writer

It is very likely that you don’t always pay special attention to your projects being in control, well managed and bringing you the much sought-after business benefits. You even might take it for granted that “someone” or “something” guides the project without knowledge on who this person / thing explicitly is. Sadly, however the lack of proper project management manifests itself after problems first start to occur. In the worst case e.g. in the miracle world of ICT the project is even continued still after its relevance for business has become obsolete and a corrective course should have taken many months – and hundreds of man hours – ago.

Research shows that a substantial share of ICT projects still end up in failure. For instance, according to the Finnish ICT Barometer 2012*) over 2/3 of the respondents estimated the ICT projects being over budget, behind schedule and not even delivering the intended business benefits.  The results are not exceptional – from elsewhere around the world similar results can be found**).

So how to manage projects better and ensure they bring you with the expected benefits? Is the solution to be found from the agile methods or other project management fads? Or can the lack of a proper project management tool even be the reason behind the harsh reality?

At Bilot we feel that the method is not to blame and the lack of a project management tool is rather an excuse than a real reason for non-successful projects. This is simply because project management isn’t rocket science. E.g. the method needs to not only be selected right, but moreover, understood correctly – and project management software is based on logic which any knowledgeable project manager needs first to understand before starting to use (like dependencies in scheduling).

This is not to say the project management profession is an easy one.  The key is to understand that successful projects don’t come in in time, on schedule and with the strived business benefits by themselves; rather with the help of a dedicated and professional person –the project manager – they at least have better odds to be successful. To sum up a few basic tips to getting and keeping your project on track towards success, remember the following:

  1. Assign a project manager. Ensure his/her dedication and professionalism; make sure he/she has an enough understanding of the content as well, in addition to administrative and people skills.
  2. Ensure your project has an owner. The owner should be the person responsible who can make decisions on the project and who finally is served with the benefits the project – if successful – brings.
  3. Ensure your project has a goal. This goal should be set by the project owner and understood in a similar manner throughout the – possibly cross-organizational – implementing team. This goal is the main thread of the whole project against which the project outcomes are evaluated to.
  4. Ensure you have a plan.  The plan should base on realistic estimates of schedule, costs and scope. A good tip is to check the facts with the implementing team first.  E.g. work rarely implemented by two different individuals is done on the same pace though the price would be the same for the task completion.
  5. Ensure follow-up. Changes in organizations, business and working relations are everyday challenges that most projects need to be balanced with. However effective partner-counter partner relations in both project administration and actual implementation are the key through which challenges can be dealt with. So be alert and communicate properly, check the changes and possible risks posed – and prepare in advance a plan B.

But – before getting ahead of yourself – remember that a lot is already done if you first find a dedicated project manager for the job – who also is knowledgeable of the points 2-5.

*) IT-barometri 2012, Tietotekniikan liitto ry

**) See e.g. Gartner 2012 June, research ID:G00231952

Blog by Leena Pettersson. Leena is a senior consultant at Business Solutions Consulting at Bilot with a background in SAP EPM area solutions. She has successfully run several projects as a project manager and possesses experience in both system and business consulting.


29.11.2013 / Mika Tanner

Suomen Tietotekniikan Liitto vietti 60-vuotis juhlapäiväänsä viime tiistaina ja järjesti ajankohtaisen seminaarin, joka jatkui illalla gaalan merkeissä. ICT elää parhaillaan melkoista murrosta ja seminaarin puhujilla oli kaikilla mielenkiintoisia näkökulmia murroksen ilmiöistä, vaikutuksista, mahdollisuuksista ja myös uhkakuvista. Lauteilla kävi varsin vaikuttava kaarti eturivin ICT alan nimistä: Kimmo Alkio (Tieto), Turkka Keskinen (UPM), Juho Malmberg (Zen Robotics), Ari Rahkonen (Microsoft), Esa Korvenmaa (Cisco), Mikko Hyppönen (F-Secure), Ilkka Kivimäki, Leena Mörttinen (EK), Robert Seren (TTLry) sekä Jyrki Kontio moderaattorin roolissa.

Tunnelma oli erinomaisen positiivinen ja henkeä nostattava. ICT:n rooli todettiin talouskasvun katalysoivana toimalana, joka voi nostaa Suomen takaisin jaloilleen. Keskustelun teemat vaihtelivat osaamisen kilpailuvalteista, ICT:n roolista yritystoiminnan tehostamisesta, ekosysteemin merkityksestä aina ICT-yrittäyyden kasvuilmilöön. Slush mainittiin joka toisessa lauseessa ja suomalaisen peliteollisuuden menestys nähtiin kaikenvoipana mahdollistajana, koska se on nostanut maamme relevanttiutta ja potentiaalia mm. rahoittajien silmissä. Usko suomalaiseen osaamiseen on vahva ja näyttöjä toki onkin runsaasti, mutta samalla poliittisen päätöksenteon merkitystä korostettiin vahvan osaamispohjan turvaamiseksi. Tämänhetkiset poliittiset linjaukset eivät vakuuttaneet. Toisaalta, osaaminen ei ole pelkästään oman kotimaisen järjestelmän varassa vaan kansainvälisen vaihdon ja ulkomaisten verkostojen merkitys nousi esiin useassa puheenvuorossa.

Yrittäjyys sai puheenvuoroissa melkoisen paljon kaistaa. Muun muassa nokiaklusterin hajoaminen on levittänyt markkinoille tuhansia lahjakkuuksia, jotka ovat jo käynnistäneet yrittäjyyden uuden aallon. Samaan aikaan start-up kulttuuria on muillakin keinolla elävöitetty esimerkiksi, Slushin ja AppCampuksen kaltaisilla aloitteilla samoin kuin Aalto Yliopiston Start-Up Saunan, Start-up Centerin ja Aaltoesin avulla.

Keskustelun taustavaikuttajana ja teknologisena ympäristötekijänä oli luonnollisesti uudet teknologiat, puheenvuoroissa hoettiin kilpaa ”Nexus-of-Forces” hapatusta ”SMACia” (Social, Mobile, Analytics, Cloud) tulevaisuuden megatrendeinä ja näitä on vaikea kiistää. Megatrendeistä tulee helposti hypeä ja toisaalta osa näistä trendeistä on jo kovasti tätä-päivää, jopa siinä määrin, että niistä voisi lopettaa jo aktiivisen esiin noston. Osa niistä on vastaavasti kovasti vielä tulevaisuutta ja markkinat, Suomen tapauksessa ainakin, ovat maturiteetissä vielä kaukana siitä, että niiden vaikutus näkyisi käytännössä.

Kokonaisuudessaan keskustelu oli tuoretta ja osin inspiroivaakin, mutta mielestäni yksi aihe jäi aika vähälle huomiolle: ”suurten ICT ikäluokkien kohtalo”. Samaan aikaan, kun näennäisesti kaikki pelillistyy ja nuoret yrittäjät, start-upit, supercellit ja supernuoret luovat uutta menestystä, YT-mylly on jauhanut markkinoille kasoittain muka-tarpeetonta keski-ikäistyvää asiantuntijakaartia. Kaikki nämä eivät varmasti ole yrittäjäsieluja vaan ihan rehtejä asiantuntijoita. Työn sankareita, jotka ovat olleet rakentamassa 2000-luvun kasvua ja joiden osaamisen kehittymisestä ei sittemmin ole huolehdittu ja kiihtyvän teknologiakehityksen pyörteessä nämä ovat jäämässä uratyhjiöön. Kokemus ja perspektiivi on arvokasta sekin ja jos näihin kiinnitettäisiin edes hiukan huomiota, tämä potentiaali saataisiin osaksi yhteistä tulevaisuuden menestystarinaa. Jos ICT ala lähtee kunnolliseen kasvuun ja täyttää savupiipputeollisuuden jättämän kraaterin taloudessamme, meillä on kohta osaamisen kapasiteettivaje edessä ja viimeistään silloin tämä reservi pitäisi saada mukaan – tällä vauhdilla tuo hetki voi olla aika piankin ja siihen olisi syytä varautua.

Vaikka tämä gaalatilaisuus oli luonnollisesti hengeltään juhlavan positiivinen, innostus vaikutti absoluuttisesti aidolta – meillä on menestykseen tarvittava momentum syntymässä ja kunhan volyymit saadaan kuntoon, inertia vie meidät vielä pitkälle.


28.11.2013 / Janne Vihervuori

It’s been a couple of weeks since our Bilot crew of 10 attended SAP TechEd 2013 Amsterdam. The clear difference in comparison to recent TechEd(s) was that the promises had turned by and large into concrete content and usable solutions as demostrated in the hands-on sessions. Even the keynote was a bit – no offense SAP – customary and did not involve too much of SAP’s top brass; Vishal Sikka sent his quick greetings via video. However, this “dullness” is by no means a bad thing, since HANA surely got its fair share of attention, and more, last year, so this means that the innovations have matured enough and do not require the grand show anymore.

Speaking of keynotes, top brass, a bit of hype and innovations, and because good old NetWeaver seems to be gradually fading away, I have to go down the memory lane 10 years back to TechEd 2003 Basel. I was among the fortunate ones in the audience to witness SAP’s Shai Agassi introduce a new concept, NetWeaver, in a two hour non-stop keynote fireworks that I consider the best presentation I have ever seen in within the IT industry, all due respect to a certain fruit company. I have always wondered what kind of a fuss this guy could have made with HANA… Anyway, now that NetWeaver seems to nearing the end of its lifecycle – the new marketing name is HANA – I have to say that the actual impact of NetWeaver was not that significant in the early years of its history. It was mostly a new way of arranging the integrated stack of SAP technology products, and adding in the web server dimension of course, but platform wise nothing really changed compared to the world of “R/3”.

Now, let’s get back to TechEd Amsterdam 2013. Regardless of hype or no-hype within the keynote, HANA was literally all around us as that one sleazy song goes. But the main thing is that we are dealing with a mature enough of a product that can deliver. The paradigm shift difference compared to the good old NetWeaver is that HANA is actually a platform capable of standalone functionality without utilizing the “old” SAP ecosystem. While NetWeaver – as a platform – in practice needed the SAP Business Suite to provide value, HANA you can just use, run it, as such and as a platform. NetWeaver was a standalone technology platform in theory, but in practice it was not. Please note that I am writing in the past tense in purpose for comparing the early life-cycle of both NetWeaver and HANA. NetWeaver will surely stay around for ages at various customers.

My personal TechEd session and lecture experience was a bit different than before. As TechEd goers know, one can reserve two hands-on sessions and queue for a stand-in place for other sessions in case there is room. I have usually done maybe three sessions, but this time I thought that I have listened enough of TechEd lectures, and I can read the slides afterwards, so I went all-in for the sessions: I thoroughly enjoyed all 6 of them this time, as that is where the real value of the TechEd lies.

My 6 sessions closed the loop around HANA, Cloud, Integration, Mobility, etc. The first session was selected as a baseline for all of the following sessions: since HANA was used in multiple ways throughout most of the sessions, one should first try to get some data into it, so I found myself preparing for HANA data loading scenarios with SAP Data Services 4.2 right after walking away from the keynote. This was followed by Cloud Integrating SuccessFactors, Mobilizing HANA with or without the SAP Mobile Platform, running Predictive Analysis, running Operational Process Intelligence and running to the Amsterdam Stadium to catch the Ajax-Celtic footy game.

If you read this blog carefully, you’d notice that I did not mention Big Data once. I saved it for last, and that was the topic of one of the few lectures I attended. It was about Real-Time Data Platform Integration with Hadoop, presented by Richard Soundy. This guy should have his own talk show, but I will leave you with just one remark he provided: “Large data is not Big Data”.


28.11.2013 / Mika Tanner

IT-järjestelmien parempi käytettävyys on monille yrityksille vielä haave. Yllättävän moni yritys ja tietotyöläinen luulee, että paremmat käyttäjäkokemukset odottavat teknologian kehittymistä. Pidimme SAP:n kanssa tiistaina aamupäivän seminaarin aiheesta. Mielestäni tapahtuma oli kokonaisuutena erinomainen aina tilajärjestelyjä myöten. SAP:n markkinointi oli tuunannut seminaaritilan kotoisaksi loungeksi ja valaistusta myöten seminaarin käyttöliittymä viritti kutsuvieraat heti oikealle aaltopituudelle. Pisteet tästä.

SAP:n Marika Auramo haastoi Suomen yritykset ravistelemaan vanhentuneet käsitykset mielistään ja kertoi, että parempi käyttäjäkokemus on saatavissa jo tänään.

Oma puheenvuoroni alusti päivän teemaa hiukan laajemmalla tulkinnalla käytettävyydestä – se on muutakin kuin pelkkää pintaa. Parempi käytettävyys on yhdistelmä parempaa järjestelmäsuunnittelua prosessitasolla, parempaa informaatiota ja monipuolista järjestelmätarjoilua, oli sitten kyseessä modernit käyttöliittymät tai laiteriippumatonta mobiliteettia. Keräsin tilaisuutta varten oman verkostoni, asiakkaiden ja asiantuntijoiden näkemyksiä paremmasta käytettävyydestä. Vastaukset olivat juuri niin kirjavia, kuin oletinkin ja kaukana ”nice-to-have” pinnallisuudesta. Käytettävyys on heidän mielestään todellista hyötyä, tässä vastaukset tiivistettynä:

1. tuo kustannussäästöjä ja tuottavuutta

2. auttaa priorisoimaan

3. kytkee ihmiset tietoon ja saa aikaan haluttua tehtävän toteutumista

4. tiivistää olennaisen

5. tukee huomaamattomasti työntekoa

Jyrki Kontio jatkoi puheenvuorolla ”Tietotekniikan suuri murros tapahtuu juuri nyt”. Jyrkille tämä oli hyvää lämmittelyä iltapäivää varten – hän nimittäin jatkoi meidän tilaisuudesta Wanhaan Satamaan moderoimaan Tietetekniikan liiton 60-vuotis juhlaseminaaria. Jyrki kävi kattavasti läpi isoimpia megatrendejä: Internet of Things, Mobility, Cloud, Social Media, Global Sourcing, Big Data, Analytics, Gaming & Consumerization, New Business Models & Ecosystems. Innovaation merkitys on ratkaisevan tärkeässä roolissa menestymisen jatkumisen takaajana. Kyky innovoimiseen vaan on vähemmän yksilökeskeistä ja enemmän verkostojen, kumppanuuksien ja asiakkuuksien yhteisinnovointia. Käyttäjäkokemuksen suunnittelussa kannattaa huomioida alan parhaat käytännöt, jotka löytyvä muualta kuin ennen, mm. pelimaailmasta.

SAP:n uusinta uutta käyttöliittymäpuolella esiteltiin Östmanin Micken ja Pietiläisen Karin toimesta. Fiori ja Screen Personas ovat vastauksia modernin käyttäjäkokemuksen luomiseen. Näillä päästään käyttöliittymäkokemuksessa tasolle, missä alkaa jo pärjätä intuitiivisyydellä.

Asiakaspuheenvuoro tuli Lemminkäiseltä. Niemisen Tapio esitteli meidän heille toimittamaa Talotekniikan liiketoimintakriittistä mobiiliratkaisua. Tämä ratkaisu kiteyttää aika hienosti nuo viisi paremman käytettävyyden arvolupausta, jotka nousivat pintaan tekemässäni mini-gallupissa. Ratkaisu on tehty tietenkin täysin asiakkaan ehdoilla ja pakko myöntää, että hienolta näyttää.

Tilaisuuden päätti pienimuotoinen flash mob – Bilotin Comedy Club näytti draaman keinoin, kuitenkin elävin esimerkein, miten käytännön elämässä yli yritysrajojen mobiilit ratkaisut voivat helpottaa liiketoiminnan harjoittamista säästäen aikaa ja hermoja.

Yleisö vaikutti varsin tyytyväiseltä näkemäänsä – kiitos kaikille osallistujille, järjestäjille ja esiintyjille – erityisesti Tapio Nieminen ja Jyrki Kontio varsinaisen crewn lisäksi.


19.11.2013 / Kristiina Sarén

Taas on se aika vuodesta, jolloin järjestelyt joulumuistamisten loppuun saattamiseksi ovat viime metreillä. Johtuen Bilotin ratkaisu- ja palveluvalikoimasta toteutamme vuoden aikana useita kymmeniä projekteja ja kehityshankkeita, joiden parissa työskentelee asiakkaidemme IT -osaston henkilöiden lisäksi liiketoimintayksiköiden eri osa-alueiden vastuuhenkilöitä. Käytännössä tämä tarkoittaa sitä, että useampien asiakkaidemme kanssa meillä on todella laaja yhteinen kontaktipinta.  Bilottilaisia on tällä hetkellä yli 100 henkilöä ja suurin osa meistä on päivittäin tekemisissä asiakkaidemme kanssa.

Yrityksissä on erilaisia tapoja toteuttaa asiakkaiden ja kumppaneiden joulumuistamiset – joulukorttirahan lahjoittaminen hyväntekeväisyyteen on tullut jäädäkseen, sähköiset joulukortit ovat tätä päivää. Muutama vuosi sitten näytti siltä, että perinteinen ”paperinen” joulukortti on kadonnut yritysten välisestä muistamisesta kokonaan.

Itse olen sitä mieltä, että perinteinen postissa lähetetty joulukortti lunastaa itselleen helposti paikan joulumuistamisten joukossa. Yrityksen kahvipöydälle kertyneet kortit muistuttavat yhteistyöstä ja myös tulevista mahdollisuuksista.

Varmistaaksemme, että jokainen lähetettävä joulukortti saa sille kuuluvan henkilökohtaisen huomion järjestämme joulukorttien allekirjoitustalkoot, toimitusjohtajan lisäksi korteilla on muitakin allekirjoittajia. Jokaisella Bilotilla on mahdollisuus kiittää yhteistyöstä asiakkaita, joiden kanssa on paiskittu yhdessä töitä kuluneen vuoden aikana. Meillä joulukorttitalkoista saa kahvipöytäkeskusteluihin iloa siinä missä joulukortin perille saapumisestakin.

Hyvää Joulun odotusta!


15.11.2013 / Antti Ollikainen

SASia on pitkään pidetty ”the” analytiikkatalona, jonka pitkää kokemusta ja kattavaa analytiikkanäkemystä on ollut vaikea päihittää. Nyt kuitenkin Dortmundista kisaan ilmoittautuu RapidMiner, joka on jo ennestään ollut KDNuggetsin mukaan maailman eniten käytetty analytiikkaohjelmisto. RapidMiner on päättänyt tallata suoraan SASin varpaille ottamalla raskaan sarjan pääomasijoittajat mukaan liiketoimintaansa kasvattamaan ja perustamalla toisen pääkonttorin Bostoniin – aivan SAS:in kotikentälle.

Onkin syytä verrata ohjelmistoja keskenään ja laittaa ne paremmuusjärjestykseen: pystyykö RapidMiner haastamaan SASin ja jos pystyy niin missä. Vertailuun otetaan mukaan mustaksi hevoseksi kolmas jenkkisofta, Microsoftin SQL Server. Musta hevonen se on siksi, että moni ei edes tiedä, että SQL Serverin Analysis Servicestä löytyvät data mining välineet.

Vertailua hankaloittaa hieman se, että Microsoftin ja RapidMinerin kohdalla on kyse yhdestä analyyttisestä ohjelmistosta, kun taas SASin tarjoomassa niitä on monta. Niinpä SASin osalta keskitytään pääasiassa yleiskäyttöisiin data mining-työkaluihin Enterprise Miner (EM) ja Enterprise Guide (EG), osin täydennettynä viittauksilla SAS JMP:n ja SAS Visual Analytics:in suuntaan.

Ohjelmistoja vertaillaan neljällä kriteerillä, joilla kaikilla on suuri merkitys tuloksekkaan analytiikan tekemisessä: käytön helppous, data mining-tekniikoiden määrä, hinta ja toiminta tuotannossa. Kunkin osion voittaja saa kolme pistettä, toinen kaksi ja kolmas yhden pisteen.

Käytön helppous

Vertailun kaikissa ohjelmistoissa analytiikkaa tehdään hiirellä klikkaillen, perustasolla ei tarvitse osata koodata. RapidMiner voittaa kuitenkin tämän osuuden, koska siinä pystyy tekemään helposti asioita, jotka muissa ohjelmistoissa vaativat koodaamista – alla esimerkkinä learning curve:n teko “Optimize parametrs” -operaattorilla:

SAS EM:ssa ja EG:ssa valmiita rakennuspalikoita on jo vähemmän, mutta niiden käyttö on toki sujuvaa. SAS:in visuaalisimmat datatyökalut ovat tosin harmillisesti pääasiassa JMP:n ja Visual Analytics:in puolella. Tällöin ne eivät auta EM:llä tai EG:llä työskentelyä. Sen sijaan monipuolisia graafisia tarkasteluja (esim. plot view ja  advanced charts) voi tehdä sujuvasti osana mitä tahansa RapidMiner:in analytiikkaprosessia ja vieläpä missä tahansa kohdassa analytiikkaprosessia. Tässä on toinen syy RapidMinerin voittoon SAS:ista käytön helppouden osalta.

SQL Server jää kolmanneksi, koska tekeminen muuttuu äkkiä vaikeaksi, jos halutaan mennä vähänkään perustoiminnallisuuksia pidemmälle. Microsoft on selvästi tavoitellut ”paina vain kerran nappia” –tyylistä analytiikkaa, jota ole ei tarkoituskaan mennä luovasti virittelemään. Alla on tehty aikasarjaennusteita SSAS:ssä:

Lisäksi SQL Serverissä tekniikoiden läpinäkyvyys on luvalla sanoen heikko: käyttäjälle ei näytetä, mitä konepellin alla tapahtuu. Kunnollista dokumentaatiota käytetystä tilastotieteestä ei myöskään ole. Tämä jättää käyttäjälle epävarman tunteen puseroon: mitä tarkalleen ottaen tulikaan tehtyä? Nämä kommentit koskevat myös MS SQL Server Add-ins for MS Officea (ja osin myös SAS Add-in for Microsoft Officea): peruskäyttö on helppoa, mutta pidemmälle menevä luova käyttö on haastavaa.

Tekemisen läpinäkyvyys on puolestaan SASilla loistokunnossa, jopa analytiikan teoreettinen tausta on dokumentoitu tarkkaan lähdeartikkeleita myöten (esim. proc mixed:in manuaali on puhelinluettelon kokoinen). Tähän ei RapidMiner harmillisesti yllä, dokumentaatio on lähinnä hyvää perustasoa, toki huimasti parempaa kuin Microsoftilla.

-> RapidMiner 3 pistettä, SAS 2 pistettä ja SQL Server 1 piste

Data mining –tekniikoiden määrä

Erilaisia data miningiin liittyviä tekniikoita ja työkaluja (operaattoreita) on RapidMinerissa satoja ja SAS EM:ssä ja EG:ssä kymmeniä. SQL Serverissä on vakiona yhdeksän mining-algoritmia. RapidMinerin perusoperaattoreilla pärjää todella pitkälle, etenkin kun lisätään R ja Weka laajennokset.

SAS:issa graafista analytiikkaa voi aina täydentää koodaamalla omaa SAS/STAT, SAS/ETS tai nykyään jopa aikasarjamoottori SAS/HPF:n koodia EM:n Code Node:en. Tämä avaa SAS-käyttäjälle niinikään satojen työkalujen pakin, kuten myös SASin data step –kielen toiminnallisuudet. RapidMiner kuitenkin voittaa SASin, koska siinä on valmiina tuntuvasti enemmän analyysejä vakiona.

-> RapidMiner 3 pistettä, SAS 2 pistettä ja SQL Server 1 piste

Toiminta tuotannossa

Hämmästyttävän usein yritykset mieltävät analytiikan vain tilastomatemaatikon koneella tapahtuvaksi puuhaamiseksi. Kuitenkin tuossa vaiheessa analytiikasta on koitunut vain kuluja  -ikään kuin kirjoittaisi pöytälaatikkoon. Todellinen ja iso hyöty syntyy vasta kun analytiikka otetaan käyttöön yrityksen tuotantoympäristössä ja sillä aletaan ohjata yrityksen liiketoimintaa. Esimerkiksi asiakaspoistumamalli siirretään osaksi yöllisiä eräajoja ja kampanjointi kohdistetaan päivittäin niihin asiakkaisiin, joilla on mallin mukaan suurin poistumavaara.

SAS on sisäistänyt tämän loistavasti, RapidMiner erittäin hyvin ja SQL Server kohtuullisesti. Tämä on myös osion paremmuusjärjestys. Esimerkkinä mainittakoon se, että SAS EM:ssa kehitetty malli voidaan tallentaa metadataan, josta sitä edelleen voidaan sujuvasti kutsua SAS Data Integraatio Studiossa osaksi datavirtaa (mining results transformaatio) vaikapa juuri laskemaan poistumariskejä osana eräajoja.

Vielä pidemmälle menee SASin Model Manager, jolla voidaan siirtää malli tuotantoon, seurata sen elinkaarta ja osumatarkkuutta ja vaihtaa tarvittaessa uusi malli. Samalla käytetyt mallit historioidaan, jotta ei keksittäisi pyörää uudestaan. Lisäksi uudelleenmallinnus tehdään juuri silloin kun tarvitaan (esim. auroc putoaa alle 0,7:n) eikä mallinnella turhaan vain varmuuden vuoksi. Tämä lisää tuntuvasti analytiikan tehokkuutta, puhumattakaan siitä että esimerkiksi finanssialalla tällainen läpinäkyvä mallinnushistorian audit trail on joissain tilanteissa viranomaisvaatimus. Alla seurataan tuotannossa olevien mallien osumatarkkuutta Model Managerin dashboardissa:

model-manager-dashboard_full

Vastaavat ominaisuudet löytyvät enimmäkseen RapidServeristä, RapidMinerin tuotantopuolesta vastaavasta osasta. Osa toiminnallisuuksista on suoraan olemassa olevia, osa saavutetaan vanhoja yhdistelemällä. Esimerkiksi edellä mainitut Model Managerin hyvät ominaisuudet on mahdollista saavuttaa yhdistelemällä RapidServerin ETL- ja raportointitoiminnallisuuksia. RapidMinerille siis kakkossija.

SQL Server on pakko jättää kolmossijalle. Ensinnäkin sen analyyttinen DMX-ohjelmointikieli on hankala käyttää. Eräs ongelma on se, että DMX:n prediction join:eja ei voi ketjuttaa siten kuin SQL-kielen joineja. On hankalaa esim. hakea SSAS:stä havainnon klusterin keskipiste ja yhdistää siihen pareittain muiden havaintojen mahalanobis-etäisyydet samaisesta keskipisteestä. Toiseksi, mallin tietojen (esim. parametriestimaattien) haku SSAS:n puurakenteesta on hankalaa. Vertailu erittäin toimiviin SASin Output Delivery System:iin ja RapidMinerin ”Apply Model” ja “Retrieve” operaattoreihin on paikallaan.

Ihmetystä aiheuttaa myös se, että oletusarvoisesti  DMX ei toimi, koska se ei saa ottaa dataa sisäänsä. Siksi joka instanssissa on erikseen asetettava SSAS:n security välilehdelle asetukset DMX:n salliviksi (AllowAdHocOpenRowsetQueries, AllowProvidersInOpenRowset ja AllowSessionMiningModels). Microsoftin ansioksi on kyllä laskettava se, että SSIS:stä toki löytyvät analyyttiseen tuotantotekemiseen tarvittavat peruskomponentit mallin päivittämiseen tuoreimmalla datalla (Data mining model training destination) ja uuden datan pisteyttämiseen (Data Mining Query Task), mutta SASin ja RapidMiner vievät voiton sujuvamman ja kattavamman toiminnan ansiosta.

-> SAS 3 pistettä, RapidMiner 2 pistettä ja SQL Server 1 piste

Hinta (hyötyyn suhteutettuna)

Ohjelmistojen hintavertailu on haastavaa, koska hinta riippuu ympäristöstä johon ohjelmisto asennetaan, ympäristöjen lukumäärästä ja käyttäjien määrästä. Silti voidaan todeta, että (absoluuttisen) hintavertailun yllätysvoittaja löytyy Microsoftilta. Tämä johtuu siitä, että jos yrityksellä vain on jo käytössä SQL Server (Enterprise ja BI editionissa on kaikki data mining-toiminnallisuudet, standardissa vain osa) niin sen data mining –työkalujen käyttö on ilmaista. Mitään lisenssilaajennoksia ei tarvita. Microsoftin BI-putki SSIS – SSAS – SSRS on niin laajasti käytössä, että tämä on tilanne todella monessa analytiikkaa harkitsevassa yrityksessä. Enin käyttöä rajoittava tekijä näyttäisikin olevan tietämyksen ja osaamisen puute. Absoluuttinen hinta tuo siis Microsoftille voiton, toki kapeampi kohderyhmä täytyy pitää mielessä.

Kakkossijan jakavat SAS ja RapidMiner. Molemmat saavat puolitoista pistettä, joskin hyvin eri perustein, eikä sijoitusta voi päättää ilman että suhteuttaa hintaa saavutettaviin hyötyihin. Perus- ja keskiraskaassa analytiikassa RapidMiner on monesti vahvoilla, koska se tarjoaa edullisesti todella laajan valikoiman valmiita työkaluja. Mutta mitä järeämpää analytiikkaa tehdään, sen vahvemmilla SAS useimmiten on, joskus jopa ainoa vaihtoehto. Absoluttinen hinta toki kasvaa kun analytiikkahaaste kovenee, mutta SASilla saavutettavat hyödyt kasvavat usein vielä voimakkaammin. Erityisesti SASin monet toimalaratkaisut kuuluvat tähän kategoriaan. Esimerkiksi retail-puolella Revenue Optimization tuotteella tähdätään satojentuhansien myyntiennusteiden tekoon joka tuotteelle, joka myymälään ja joka päivä. Samalla optimoidaan niiden hinnat ja kampanjat – ja tämä kaikki tarvittaessa jokaöisinä eräjoina.

Lopuksi on todettava, että mikä tahansa – ilmainenkin – ohjelmisto on kallis, jos se ei ratkaise yrityksen liiketoimintaongelmaa.

-> SQL Server 3 pistettä, RapidMiner 1,5 pistettä ja SAS 1,5 pistettä

Dortmund donkkaa tykimmin

RapidMIner voittaa vertailun 9,5:llä pisteellä, SAS tulee toiseksi 8,5:llä pisteellä ja SQL Server on kolmas kuudella pisteellä. Alla on esitetty taulukkona vertailun tulokset:

taul

RapidMInerin vahvuudet ovat sujuva ja intuitiivinen käyttö sekä laaja paletti valmiita työkaluja kohtuuhintaan. SASilla työkalujen määrä ja niiden sujuva käyttö ovat myös hyvällä tolalla, mutta se ottaa voiton sujuvassa toiminnassa tuotannossa.

SQL Serverilläkin on paikkansa. Se on vakavasti harkittava vaihtoehto niille yrityksille, joilla on jo käytössä SQL Server ja jotka aloittelevat data miningia. Tai joiden tavoitteena on ennemmin 80/20-analytiikka kuin pureutuminen jokaiseen epsiloniin akateemisella perusteellisuudella.

Mikä analytiikkaohjelmisto minulle sopii?

Viime kädessä kaikki tässä käsitellyt ohjelmistot ovat päteviä asiassaan ja erot niiden toiminnassa ovat ennemmin painotuksia kuin vakavia puutteita; kaikki selviävät valtaosasta analytiikkahaasteista. Jos voimakkaasti yksinkertaistetaan, voi ohjelmistoja suositella seuraavasti:

  • Jos analytiikkaohjelmiston on ehdottomasti oltava ilmainen, ja käytät jo valmiiksi SQL Serveriä, tee sillä myös analytiikkaa.
  • Jos haluat päästä edullisesti pitkälle valmiilla työkaluilla, valitse RapidMiner.
  • Jos tähtäät arvokkaan (esim. toimialaspesifin) liiketoimintahaasteen laajamittaiseen ratkaisuun tuotantoympäristössä, valitse SAS.

___________________________________________________________________________________________________

Antti Ollikainen on työskennellyt 5,5 vuotta SASilla seniorikonsulttina ja 2 vuotta Samcomin Microsoft-osastolla arkkitehtina SQL Server päätyökaluna. Lisäksi Antti on sertifioitu RapidMiner analyytikko. Tätä nykyä Antti konsultoi asiakkaita Louhialla ennakoivan analytiikan ja matemaattisen optimoinnin hankkeissa, kaikkia tässä mainittuja analytiikkasovelluksia asiakkaan tarpeen mukaan käyttäen.


11.11.2013 / Jani Liimatta

Pahoittelut etukäteen blogimme lukijoille; tämä menee nyt hieman tuotemainoksen puolelle, mutta nyt on kyseessä sen verran uniikki tuote että on pakko hieman hehkuttaa.

Business Intelligence-projektit ovat tyypillisesti haasteellisia dokumentoitavia. Täytyy myöntää että itsellekin on useamman kerran tullut tunnettua tuskaa dokumentaatiota tehdessä toimituksen viime metreillä.

Tyypillisesti projektin dokumentaatio koostuu osin tehdystä määrittelydokumentista, jota sitten projektin edetessä täydennetään BI-projektin tuotoksilla (suomeksi, yleensä dokumentaatio luodaan vasta kun on ihan pakko).

Tyypillistä on, että Word-dokumenttiin luodaan n kpl staattisia taulukoita, joihin otetaan sisältöä sivumäärän kasvattamiseksi copy-pastella luodusta tietovarastosta, taulujen rakenteesta, stage-tauluista, kuutioista, mappauksista jne. Lopputuloksena on pahimmillaan sata sivua pitkä arvoton copy-paste-pläjäys.

Kahden vuoden kuluttua projektin päättymisestä ja dokumentaation luovuttamisesta on tyypillistä että:

  • Dokumentaatio on jäänyt päivittämättä ja on siksi käyttökelvoton.
  • Dokumentaatio on niin kompleksinen, pitkä ja tekninen, ettei asiakas ymmärrä siitä mitään. Dokumenttia ei ole edes avattu luovuttamisen jälkeen.
  • BI-projekti on enemmän tai vähemmän itse itsensä dokumentoiva, kokeneille tekijöille asiat selviävät helpommin katsomalla tuotokset läpi.
  • Dokumentaatio ei itse asiassa vastaa seuraaviin oleellisiin kysymyksiin:
    • Mistä raportilla näkyvä luku tulee? Missä se on tietovarastossa? Mistä lähdejärjestelmän taulusta ja sarakkeesta se tulee?
    • Miten raportit, kuutiot, tietovarastot suhteutuvat toisiinsa?
    • Mitä tapahtuu jos muutan tietovaraston yhden taulun tai sarakkeen nimeä tai tietotyyppiä, mihin kaikkialle se vaikuttaa?

Dokumentaation suurin arvo on siihen tallennetut käyttäjätunnukset ja salasanat, joilla pahimmillaan pääsee sekunneissa murtautumaan asiakkaan tuotantoympäristöön. Varmuuden vuoksi dokumentaationivaska kulki konsultin mukana putkikassissa, joka unohtui epähuomiossa Ala-Tikkurilan Shell-huoltoasemalle.

Näitä dokumentoinnin dilemmoja olen silloin tällöin pohdiskellut jo monta vuotta. Muistelisin että kymmenisen vuotta sitten eräs kollega heitti idean, mitä jos oikeasti dokumentoitaisiin projekti mappauksilla? Siten että helposti päästäisiin käsiksi esim. raportin sarakkeelta tiedon lähteelle asti? Taisin vastata jotain tyyliin: “Joo, tee pois vaan – jos osaat”. No, ilman työkaluja tuollaisen dokumentaation luonti olisikin ollut mahdoton tehtävä.

Vuosi sitten törmäsin Pragmatic Worksiin. ‘BI Documenter’ (nykyiseltä nimeltään Doc xPress)-tuotteeseen.  Olin myyty heti ensiasennuksen suoritettuani.

Yhtään liitoittelematta uskallan väittää, että Doc xPress vie BI-projektin dokumentoinnin uusiin, ennennäkemättömiin svääreihin.

Lyhyesti, kyse on tästä:

  • Dokumentaation automatisointi. Dokumentoi Microsoft BI-ympäristösi automaattisesti Word, HTML tai .chm-help-file muotoisena. Unohda rakenteiden manuaalinen kopiointi. Dokumentaatio on käytettävyydeltään aivan toista luokkaa staattiseen word-dokumentaatioon verrattuna, ja aina ajantasainen.

Document

  • Projektin seuranta projektin aikana; mitä on saatu aikaiseksi. Tämä onnistuu Snapshot-vertailulla. Dokumentaation versiot arkistoidaan automaattisesti snapshotteina. Näet työkalun avulla heti mitä uutta projektiin on tullut esim. edellisen viikon aikana. Alla olevan esimerkkivertailun avulla selviää, että asiakasdimensioon on lisätty yksinkertainen audit-toiminnallisuus.
Valitse vertailtavat SnapHotit
Valitse vertailtavat SnapShotit
Vertaile versioita
Vertaile eri SnapShot-versioita
  • Ehkä paketin pysäyttävin ominaisuus on Lineage Analysis. Koskaan aiemmin ei ole ollut käsissä välinettä, jolla pystytään analysoimaan projektin vaikutussuhteita miltä tahansa tasolta. BI-projektin kokonaisuushan koostuu tyypillisesti ETL:stä, tietovarastosta, kuutioista sekä raporteista. Lineage Analysis mahdollistaa ennennäkemättömällä tavalla valitsemaan esimerkiksi tietovarastosta yhden sarakkeen, selvittämään mistä se tulee ja mihin sarake ui kuutiossa ja raporteilla.
  • Erilaisia hyötyjä voidaan esimerkiksi saada:
    • Vaikutussuhteiden selvittäminen pääkäyttäjälle ja kehittäjille – esim. mistä lähteestä raportilla näkyvä luku tulee, mitä ketjua pitkin se tulee raportille
    • Projektin kokonaisuuden hahmottaminen uudelle kehittäjälle
    • Mihin kaikkialle vaikuttaa jos vaihdan tietovaraston sarakkeen tietotyyppiä tai nimeä
    • Heikot nimeämiskäytännöt  tietovarastossa paljastuvat projektipäällikölle tai pääkäyttäjälle helposti ja nopeasti. On tyypillistä että kehittäjien laiskuuden vuoksi ETL-komponentit, datasetit jne on jätetty nimeämättä. Tämä vaikeuttaa ylläpitoa tai uusien kehittäjien mukaan hyppäämistä huomattavasti. Tai esimerkiksi asioita on oiottu lisäämällä logiikkaa  pelkästään kuutioon.
    • Alla olevasta esimerkistä selviävät nopeast demo- BI-projektin komponentit, joissa asiakasdimensiota on käytetty:

Lineage Analysis käsitetasolla

  • Seuraavasta esimerkistä selviää, mistä lähdejärjestelmän sarakkeesta asiakkaan nimi tulee. Se on näemmä yhdistelmä lähdejärjestelmän etu- ja sukunimestä.

LineageAnalysis saraketasolla


7.11.2013 / Jani Liimatta

Kollega esitti kysymyksen; miten Microsoft-kuutioon saadaan vastaava kalenteritoiminnallisuus kuin Cognos-kuutioon? Microsoftin kalenterikäsittely kuutiossa on hieman onneton. Cognos-käyttäjät ovat tottuneet parempaan näiltä osin.

Perinteisesti Microsoft-kuutioon on lisätty esim. Vuoden alusta, Edellisen vuoden vertailu, Edellisen kauden vertailu yms. luvut laskennallisina membereinä. Tämä on ihan toimiva ratkaisu siihen asti kun mittareita on kuutiossa useampia ja jokaiseen mittariin tarvitaan samat laskennat. Tällöin mittareiden lukumäärä lähtee käsistä ja kuution käytettävyys laskee.

Paras ratkaisu jonka itse olen löytänyt on Marco Russon ratkaisu. Kuutiossa itsessäänkin on toki ‘Add Business Intelligence’-wizard, joka lisää hieman vastaavaaa toiminnallisuutta, mutta siinä on omat pienet puutteensa. Russon ratkaisun nimi on Date Dimension Tool, saa ladata täältä:

http://www.sqlbi.com/tools/datetool-dimension

Lopputuloksena saat kuutioon uuden dimension, johon laskennalliset sarakkeet tulevat (vakiona Aggregation sekä Comparison):

DateTool2

 

 

Kuutiossa tämän jälkeen pystyt saamaan laskennalliset mittarit joko sarakkeille tai riveille.

Lisäksi pystyt valitsemaan, mitkä laskennalliset lisämittarit raportilla näytetään:

DateTool1

 

Excelissä kuution data saattaa näyttää esim tältä (itse luvut on tästä kuvasta poistettu):

DateTool3