29.01.2016 / Janne Vihervuori

With the first release of S/4HANA Financials in autumn, 2014 SAP’s new software product is on the agenda of almost every CIO. However, most SAP customers still seem to prefer to wait before they decide if and when they really need to do the step onto S/4HANA.

Now, after three releases of S/4HANA Financials and the first release of the new product named S/4HANA Enterprise Management combining Financials and Logistics there are still doubts left in this question. SAP announced that the current product SAP ERP ECC will be maintained until 2025 (possibly some years longer with an uplift on the maintenance fees). So do CIOs not need to think about S/4HANA now? Moreover,  when should they start to think about it?

To answer those questions, it is important to understand how the roadmap to S/4HANA will look like. So it is necessary to validate if the “standard” roadmap provided by SAP today will remain when looking on the individual situation of each company. Of course the IT world is changing every day, all SAP users are working on IT projects within their existing landscape that might be influenced by the migration upon a complete new SAP software version. Those projects need to be synchronized to a migration onto S/4HANA. Also, the existing SAP systems require several steps as a prerequisite before moving onto S/4HANA such as housekeeping of the data structure and individual developments, newGL implementation, Unicode conversion and some more.

However, let’s not forget the benefits of this new world. S/4HANA will offer new possibilities regarding functionality, technology, and big data. Data and processes which need to be handled in separate systems today might be harmonized and consolidated in only one new system tomorrow. Also, the new landscape might also affect software products outside of SAP ERP such as CRM, Commerce, BW, APO – or even other non-SAP based systems within the complex corporate IT landscape.

Last but not least one important topic is the roadmap itself. Does the same S/4HANA approach apply for all clients? Even though S/4HANA is a standard solution that represents new kind of thinking regarding simplification, there are different transition paths to choose. Some SAP customers have business priorities; some decide to prioritize the technical innovation and landscape transformation path.

This is the first blog comment in a series of more to come. We will frequently consider all facts and answer the questions mentioned above within the next weeks.

For customers searching for quicker answers and support in the S/4 HANA roadmap Bilot and cbs Corporate Business Solutions have announced a cooperation today providing SAP customers a world leading S/4HANA transition service as a joint offering. Bilot is an acclaimed pioneer in the field of SAP Digital Services and designing value-added solutions on-top-of SAP.

Stay online in this blog or contact us right away.

This Blog is co-authored by Lorenz Praefcke and Janne Vihervuori.


Lorenz Praefcke

‎Director, Business Development

cbs Corporate Business Solutions GmbH

M +49 174 3438585, lorenz.praefcke@cbs-consulting.de

Lorenz Praefcke - cbs












Janne Vihervuori

Business Lead, Business Applications

Bilot Consulting Oy

M +358 40 5212444, janne.vihervuori@bilot.fi

Janne Vihervuori - Bilot







29.01.2016 / News Team

Finnish SAP Gold partner Bilot and Heidelberg based cbs Corporate Business Solutions GmbH (cbs) announced today their cooperation in providing SAP customers with leading S/4 HANA transition services as a joint offering. cbs Corporate Business Solutions has deep experience in most complex SAP ERP transformations and HANA migrations globally. Bilot is a pioneer and recognized leader in designing and deploying SAP solutions and simplifying digitalization within the SAP ecosystem.

SAP S/4 HANA is the new digital core of SAP business platform. S/4 HANA has had the fastest growth of a new product in SAP’s history and it is expected that customer transition from their current SAP ERP to S/4HANA will rapidly increase towards the end of 2016. SAP customers worldwide are currently analyzing the benefits of SAP S/4 HANA and planning the transformation projects.

By joining forces Bilot and cbs Corporate Business Solutions will be able to provide a secure migration path and maximize the benefits of SAP S/4 HANA to their customers. cbs Corporate Business Solutions has a globally unique capability in governing and executing complex SAP landscape transformations. Bilot is Finland’s leading SAP service company with a sophisticated portfolio of services and solutions for commerce-driven business. Bilot’s role in the cooperation is to provide UX development, Cloud, Customer Engagement and Commerce, Analytics, IoT, big data and Integration services that help customers fully leverage the potential of the S/4HANA Digital Core.

“This is the perfect continuum to our accomplished partnership with cbs. We are combining the excellence of two leaders of their respective genre to form a truly compelling offering for S/4 HANA transformation. Bilot and cbs have already done successful projects together – there is nothing equal to this in the market. Customers considering S/4 HANA will benefit from our holistic and independent approach.” says Mika Tanner, CEO Bilot Group.
“SAP customers who are facing business transformations, and all those who are about to build a standardized, harmonized, and consolidated SAP solution on a global scale, should be aware of the significant change in today’s SAP software portfolio, and get prepared for the new future rather quickly. SAP’s system architecture of tomorrow will not look like the one you have planned two years before.
By following our methodical S/4HANA transition program, global companies will be able to refresh and safeguard their SAP strategy 2020+, and properly integrate S/4HANA innovations into their IT roadmap and project portfolio– says Harald Sulovsky, CEO of cbs Corporate Business Solutions.

The joint S/4 HANA offering of Bilot and cbs Corporate Business Solutions is available in Nordic countries, Poland and by request also in other markets.


For more information please contact:

Bilot Oy – Group CEO
Mika Tanner
Bilot Oy
tel. +358 40 544 0477, mika.tanner@bilot.fi

Bilot Oy – Director, Markets and Ecosystem
Mikko Koljonen
Bilot International Oy
tel. +358 50 36 28 218, mikko.koljonen@bilot.fi

cbs – CEO
Harald Sulovsky
cbs Corporate Business Solutions Unternehmensberatung GmbH
Heidelberg, Germany
tel. +49 6221 33040, harald.sulovsky@cbs-consulting.de

cbs – Director Business Development
Lorenz Praefcke
cbs Corporate Business Solutions Unternehmensberatung GmbH
Heidelberg, Germany
tel. +49 174 343 8585, lorenz.praefcke@cbs-consulting.de


cbs Corporate Business Solutions Unternehmensberatung GmbH

As an international process and SAP consultant, the management consultancy cbs Corporate Business Solutions (www.cbs-consulting.com) is a provider of high-quality corporate solutions for global process and SAP system landscapes.

cbs is a quality leader when it comes to global solutions (Corporate Business Solutions) for companies using SAP. The Heidelberg management, process, and SAP consultants plan and design global transformation projects, template rollouts, and sustainable support concepts for a standardized, harmonized, and consolidated process and SAP system landscape. Its full range of services for quick, secure, and efficient corporate transformation is unsurpassed worldwide. cbs belongs to the Materna Group and employs over 250 members of staff at its headquarters in Heidelberg and at its locations in Munich, Stuttgart, Dortmund, Hamburg, Singapore, and Zurich. With its powerful international network of partners, cbs provides customer-centric solutions worldwide.




Bilot is an independent, creative and genuinely customer focused business technology company. Founded in 2005 by leading experts in their field, we are a growth company and regarded as a pioneer when it comes to adopting and developing the latest SAP and Microsoft solutions. Bilot group turnover in 2015 was 15 MEUR and there are currently approximately 130 employees. Bilot is a Gold level partner of SAP and Microsoft. bilot.fi

28.01.2016 / Lasse Liukkonen

“Deep learning”- termiin törmää nykyisin monessa yhteydessä, esimerkiksi lukiessaan kagglen kilpailujen tuloksia tai alan kirjoituksia (machine learning). Google Trendsistä tarkastettuna “deep learning” tai tuttavallisemmin syväoppiminen on alettu hypettämään 2012 vuoden lopusta lähtien ja termin viljeleminen internetissä on ollut liki eksponentiaalisessa nousukiidossa. Mistä oikein on kyse?

Syväoppimisen voi ymmärtää monella tapaa. Joillekin se voi merkitä ainoastaan perinteisien mallinnusmenetelmien soveltamista, askeleena raportoinnista kohti ennustavaa analytiikka. Omasta näkökulmasta ajateltuna kyseessä on joukko mallinnusmenetelmiä normaalia kompleksisempien datastruktuurien tai ilmiöiden mallintamiseen/ennustamiseen. Tekisi mieli sanoa, että syväoppiminen on suurilta osin erityyppisten neuroverkkojen (convolution, radial basis, recurrent, stochastic,…) tuunaamista ja optimoimista erilaisiin tavallista haastavampiin mallinnusongelmiin. Tälläisiä ongelmia ovat esimerkiksi käsialan (kirjainten ja numeroiden) ja puheen tunnistaminen, genetiikan mallinnusongelmat. Kyseiset mallinnusongelmat voivat olla tyypiltään supervised- tai unsupervised (mitä nämä ovat suomeksi? itseoppiva ja ei-itseoppiva?).

Vahvasti kuitenkin näyttää siltä, että myös ns. tukivektorikoneen (SVM) käyttöä voidaan pitää syväoppimisena, tämä on hyvin ymmärrettävää, sillä todellisuudessa suurin osa kyseisen menetelmän soveltajista ei oikeastaan tiedä yhtään mitään siitä, mitä mallinnuksen aikana tapahtuu matemaattisesti, enkä voi myöskään suosittele kaikkia ottamaan selvää asiasta, ainakaan kovin syvällisesti. Perusperiaatteen tunteminen yksinkertaisessa tapauksessa on tietysti suotavaa. Lisäksi todettakoon, että tukivektorikone ja neuroverkko eivät itseasiassa pohjimmiltaan eroa kovinkaan suuresti toisistaan, joten on perusteltua lisätä tukivektorikoneet samaan kategoriaan, kun rajoitetaan tarkastelu supervised-tyyppisiin syväoppimisen menetelmiin.

“Tavanomaisiin” mallinnusongelmiin (supervised & verrattain selkeä datan rakenne) käytettävissä neuroverkoissa on tavallisesti yksi, tai maksimissaan kaksi tasoa (hidden layers). Syväoppimisessa käytettävien neuroverkkojen tasojen määrä voi olla huomattavasti suurempi, joka mahdollistaa kompleksisemman datan rakenteen mallintamisen. Itseasiassa syväoppimiseen luokiteltavien neuroverkkotyyppien rakenne ja estimointimenetelmät mahdollistavat sen, että laskennan takana ei tarvita välttämättä yhtä paljon rautaa kuin saman mallinnusongelman ratkaisemisessa tavanomaisella neuroverkolla. Tästä syystä tasojen lisääminen ei välttämättä muodostu laskennallisesti mahdottomaksi.

Tein kenttäkokeita syväoppimiseen lukeutuvilla neuroverkoilla luokitteluongelmille, joihin business-maailmassa törmää usein ja vertasin tuloksia perinteisempien menetelmien (satunnainen metsä, boostattu päätöspuu) tuloksiin, tässä joitakin huomioita:

a. Neuroverkon parametrien optimointi (~15-20 parametria, mm. tasojen lkm, regularisointiparametrit, aktivointifunktioit.) muistutti läheisesti tietokoneen tweekkaamista, ts. laskenta-ajan mahdottomuus vs. luokittelutarkkuus. Joidenkin parametrien merkityksestä itse neuroverkon estimointiprosessissa ei itselläni ollut mitään hajua (laiskuus iski, en jaksanut selvittää ja/tai ymmärtää kaikkien syvällistä merkitystä!). Onneksi käyttämäni ohjelma kertoi arvioidun jäljellä olevan laskenta-ajan suhteellisen osuuden, joten joidenkin parametrikombinaatioiden osalta oli peli vihellettävä poikki hyvissä ajoin!

b. Satunnainen metsä ja boostattu päätöspuu suoriutuivat mallinnusongelmista yhtä hyvin kuin neuroverkko, pienemmällä määrällä parametrien säätöä. Neuroverkon laskenta-ajan käytin taustamuuttujien muunnoksien muodostamiseen ja muuttujien valintaan. Neuroverkkoihin syötin taustamuuttujat sellaisenaan.

c. Neuroverkon parametrien optimointi suoritettiin intensitiivisenä rinnakkaislaskentana, joten koneen käyttäminen laskenta-aikana oli liki mahdotonta. Tästä tuli mieleen tunnettu slogan “jää aikaa muuhunkin”. Ilman rinnakkaislaskentaa olisi mallinnukset kestäneet arviolta 3 kertaa kauemmin.

d. Enpä oikeistaan ymmärtänyt mitä neuroverkon opettamisessa tapahtui, täysin blackbox… No tulokset olivat kuitenkin yllättävän hyviä manuaaliseen iteroimisvaivaan nähden, rauta hoiti hommat. Tulokset olivat vahvasti sidoksissa parametrien optimointiin, joten optimointi oli välttämätöntä.

Yhteenvetona voisi todeta, että neuroverkkoa (syväoppimiseen lukeutuva/lukeutuvat) käytettäessä analyytikon manuaalinen iteraatiokierroksiin käytetty aika käytettiin laskenta-aikaan. Satunnaisen metsän ja boostatun päätöspuun parametrien optimointi tuntui varsin tylsältä ja yksinkertaiselta. Fiilis neuroverkon estimoinnin valmistumisesta ja tulosten tupsahtamisesta toi mieleen joulunajan odotuksen ja lahjojen avaamisen: aina ei piinallisen odottelun jälkeen lahja (mallin tarkkuus) ollut mieleinen tai vastaavasti joulupäivänä seuraavan jouluun (estimoinnin valmistuminen) odottaminen tuntui tolkuttoman pitkältä ajalta.

Omien kenttäkokeiden perusteella suurin osa supervised-tyyppisistä yritysmaailman mallinnusongelmista ei välttämättä tarvitse syväoppimisen menetelmien kirjoa, voi kuitenkin joskus olla järkevää jättää yöksi kone jauhamaan neuroverkkojen (ja tukivektorikoneiden) pariin saadakseen jonkin benchmark-tuloksen perinteisimmille, ehkä hieman tulkinnallisemmille menetelmille.

Itse en ole suuri neuroverkko tai tukivektorikone fani/spesialisti, mutta lupasin itselleni jatkossa hyödyntää koesession oppeja ja valmiita syväoppimisen aihioita päivittäisessä mallinnustyössäni enemmän. Syväoppimisen menetelmiin syvällinen perehtyminen ei siis välttämättä ole aivan tarpeen ellei työnkuvaasi kuulu unsupervised-ongelmien ratkominen, joissa tulet ennen pitkään törmäämään hypetettyyn käsitteeseen halusit sitä tai et.

26.01.2016 / News Team

Bilot liittyy Tableaun kumppanuusohjelmaan


Bilot julkisti tänään liittyneensä Tableaun kumppanuusohjelmaan toimittaakseen markkinoiden parhaita BI ratkaisuja asiakkailleen.


Tableaun jälleenmyyjäkumppanit ovat IT palveluntarjoajia, jotka myyvät Business Intelligence palveluita, kuten järjestelmien implementointeja ja käyttöönottoprojekteja sekä Tableaun lisenssejä.

Liittymällä kumpaanuusohjelmaan Bilot vahvistaa kykyään toimittaa BI ratkaisuja kaiken kokoisille yrityksille lähdejärjestelmäriippumattomasti. Bilot on tullut tunnetuksi edelläkävijyydestään erityisesti SAP BI ratkaisuissa, kuten HANA- ja Business Objects teknologioissa.

“Yhteistyömme Tableaun kanssa parantaa kyvykkyyksiämme rakentaa visuaalisia ja toiminnoiltaan monipuolisia ratkaisuja tietojen analysointiin nopeasti ja kustannustehokkaasti. Tableaun käyttöönotto on hyvin nopeaa, koska konfigurointien määrä on minimaalinen. Tyypillisesti asiakkaat voivat alkaa analysoida dataansa jo ensimmäistä päivästä alkaen”, sanoo Toni Haapakoski, Co-Founder, Bilot




Bilot on vuonna 2005 perustettu konsultointi- ja ohjelmistotalo. Yrityksen juuret ovat BI konsultoinnissa ja nykyisin yritys tunnetaan edelläkävijänä yritysten digitalisoinnissa uusimpien SAP- ja Microsoft-ratkaisujen, kuten verkkokauppojen, CRM:n, analytiikan, BI:n, suorituskyvyn ja perustietojen johtamisen implementoinnissa ja kehittämisessä. Bilotin oman ratkaisutarjoaman lisäksi Bilot on solminut kumppanuussuhteita useiden Niche ohjelmistotalojen kanssa, joiden visionääriset ratkaisut täydentävät nykyistä portfoliotamme.



Bilot on henkilöstön omistuksessa ja sen toimipisteet sijaitsevat Helsingissä sekä Puolan Poznanissa ja Varsovassa. Yrityksen liikevaihto oli 15 MEUR vuonna 2015 ja sen palveluksessa on 130 alan lahjakkuutta, luovimpia ajattelijoita ja terävimpiä näkijöitä. bilot.fi


Lisätietoja saat ottamalla yhteyttä:, Toni Haapakoski, Co-Founder Toni.haapakoski@bilot.fi +358 50 442 0008

26.01.2016 / News Team

Bilot Joins the Tableau Partner Program as a Value Added Reseller


Bilot announced today that it has joined the Tableau Partner Program as a Value Added Reseller to deliver world-class BI solutions to its customers.


As part of its Tableau Partner ecosystem, Tableau Resellers are technology service providers that resell Tableau licenses in addition to their own deployment, implementation and other business intelligence services.


By joining the Tableau Reseller Partner program, Bilot will further strengthen its ability to implement data analytics solutions for companies of all sizes, no matter the kind of operational systems is in use. To date, Bilot has been known as a forerunner with SAP BI technologies like HANA and Business Objects.


“Partnering with Tableau boosts our capabilities to build highly visual and functionally rich data analytics solutions quickly and affordably. As minimal configuration is required with Tableau, the implementation time is shortened significantly and customers are able to start analyzing their data from day one.” says Toni Haapakoski, Co-FounderBilot.



About Bilot

Bilot is a consulting and software company founded in 2005. The company’s roots are in business intelligence and today the company is known as a forerunner in digitalizing enterprises with the most value added SAP and Microsoft –based solutions in the areas of Commerce, CRM, Advanced Analytics & BI, Enterprise Performance Management and Master Data Management. In addition to Bilot’s own offering, it has partnered with several niche vendors to complement its portfolio with other visionary solutions.


Bilot is owned by its personnel and is located in Helsinki, Finland and Poznan and Warsaw in Poland. The company’s turnover was 15 MEUR in 2015 and it employs 130 talented visionaries and thought leaders in its technology realm. bilot.fi


For more information, please contact Toni Haapakoski, Co-Founder, Bilot toni.haapakoski@bilot.fi +358 50 442 0008

18.01.2016 / Ville Niemijärvi

Käytännön analytiikan blogisarjamme jatkuu. Viime kerralla määrittelimme liiketoimintaongelman, joka pitää ratkoa ja sovimme toimenpiteistä joilla tähän päästään.

Ennen kuin päästään itse datan pariin, pitää meidän pystyttää tekninen ympäristö. Käydään se nyt läpi. Otetaan ensiksi katsaus ylätason arkkitehtuuriin, tuotteisiin ja komponentteihin. Sen jälkeen alempana näytetään miten kaikki tehdään käytännössä.

Edistyneen analytiikan arkkitehtuuri

Mitä tuotteita, tietokantoja ja sovelluksia tarvitaan kun rakennetaan täysiverinen, tuotantokelpoinen analytiikkaympäristö? Otetaan selvää.

Katsotaan ensiksi ihan ylätasolla, mitä meillä pitää olla ja mitä pitää tehdä?

  • lähdedata: meillä pitää olla jotain mitä työstää ja analysoida
  • tietojen poiminta, muokkaus ja integrointi. Eli meillä pitää olla jokin ns. etl-työväline (extract-transform-load, tuttu tietovarastomaailmasta). Yleensä valtaosa analytiikkaprojektin työajasta (n. 70%) menee datan muokkaamiseen ja käsittelyyn.
  • tietokanta, johon lähdetieto tallennetaan, jossa sitä myös muokataan etl-välineellä ja jonne myös valmiit tuotokset tallennetaan
  • analytiikkatyöväline: eli se missä varsinainen tiedon mallinnus, data science ja algoritmit sijaitsee
  • visualisointi, julkaisu: analytiikkatyöväline on harvoin se missä tulokset näytetään loppukäyttäjille. Usein, miltei aina tulokset viedään johonkin raportointi- tai visualisointiohjelmistoon.

Eli tiedon arvon jalostusta ja niihin liittyviä komponentteja voisi kuvata kuten alla.

Analytiikka-arkkitehtuuri Azure-ympäristössä Louhia

Arkkitehtuurin voi myös kuvata perinteisesti tietovarastotyyliin kuten alla kuvassa:

Analytiikka-arkkitehtuuri Azure-ympäristössä Louhia 2

Ja muistetaan, että kaikki tuotteet, palvelimet ja komponentit pitää löytyä pilvestä. Lähdetietoja lukuunottamatta. Mitään ei asenneta omalle koneelle tai omaan palvelinsaliin.

Heitän seuraavaksi pallon Lasselle, joka toipui influessasta yhdessä päivässä, kuulemma pelkästään proteiinipatukoiden voimalla.

Teknisen ympäristön pystyttäminen

Seuraavassa käydään läpi miten edellä luetellut kaikki tarvittavat tuotteet, tietokannat ja palvelimet otetaan käyttöön Microsoft Azure -ympäristössä.

1. Luo Azure tili

Azure tilin osalta voidaan puhua ihan tavallisesta Microsoftin käyttäjätilistä. Microsoftin käyttäjätilillä (yritys/yksityinen) pääsee kirjautumaan kaikkiin Microsoftin palveluihin. Microsoftin käyttätilin voi luoda osoitteessa signup.live.com



Kun Microsoftin käyttäjätili on luotu, pääset kirjautumaan osoitteessa https://account.windowsazure.com/, jossa seuraavaksi luodaan Azure-tilaus (Subscription). Tässä yhteydessä valitaan haluttu maksutapa ja kerrotaan kenen pussista rahat otetaan. Meidän blogisarjaa varten rahat viedään minun eli Lassen tililtä Pay-As-You-Go-tyyppisesti, eli maksetaan kiltisti viulut mitä palveluiden käytöstä aiheutuu, eikä tippaakaan ylimääräistä (kiitos Lasse uhrauksesta. T. Johto)


Kun edellä olevat kohdat kyselyineen ovat täytetty, voidaan siirtyä seuraavaan kohtaan.


2. Azure virtuaalipalvelin ja sinne ETL-työväline (SSIS)

Kirjautumalla osoitteeseen https://portal.azure.com/ edellisessä kohdassa luomalla käyttäjätililläsi, pääset käsiksi Azuren palveluihin, yhdestä paikasta. Tarkkasilmäisimmät huomaavat, että alla olevassa kuvassa näyttäisi olevan jo ostettuina palveluita, mm. Azure SQL-tietokanta, Azure Virtuaalipalvelin, jne… Eli ei pitkälle päästy, kun jäätiin housut kintuissa kiinni,

a. Emme luoneet blogisarjaa varten uutta Microsoft-käyttäjätiliä vaan käytimme jo olemassa olevaa,

b. Unohdin ottaa screenshotin portaalin aloitusnäkymästä ennen kuin suoritin kohdat 3.-4.

Aloitusnäkymä poikkeaa täten aivan blankosta näkymästä


Valitaan New -> Compute -> Windows Server 2012 R2 Datacenter


Deployment method: Recource Manager (tai Classic) -> Create


Seuraavaksi määritellään virtuaalipalvelimen asetukset


Huomioitavaa on se, että tässä vaiheessa luodaan uusi Resource Group, jonka alle eri palveluita voidaan ottaa käyttöön (seuraaminen/hallinnointi helpompaa). Seuraavaksi määritellä raudan speksit, demoa varten meille riittää A1 Basic-tason virtuaalikone. Saamme valinnalla tuulahduksen nostalgisista 386:n ajoista. Tämän tason virtuaalimasiinasta on kokemuksia ja tiedän ettei hyvä heilu suorituskykymielessä, mutta mennään tällä jotta luottorajat ei pauku ja saan tuotua leivän perheelle ensi kuussakin.


Ja kun kun kaikki on tarkistettu vähintään kertaalleen, painetaan OK


Kun OK-nappia on painettu palaa Azure-portaali aloitusnäkymään, johon on ilmestynyt sininen suorakulmio, jossa viuhahtelee valkoisia viivoja, tämä tarkoittaa sitä, että palvelinta ollaan pystyttämässä. Pystytystä odotellessa voidaan siirtyä seuraavaan kohtaan ja palata ETL-työvälineen asentamiseen kun virtuaalipalvelin on luotu.

ETL-työväline, ts. Microsoftin Data Toolsin (tarkemmin demosarjan tapauksessa: (Microsoft SQL Server Data Tools – Business Intelligence for Visual Studio 2012) saa ladattua Microsoftin sivuilta (https://www.microsoft.com/en-us/download/confirmation.aspx?id=36843).

Nyt kun virtuaalipalvelin on luotu, voimme kirjautua sinne esimerkiksi suoraan Remote Desktop Connectionilla (palvelimen tiedot löytyvät Azure-portaalista). Kiikutetaan Data Toolsin sisältävä tiedosto (SSDTBI_VS2012_x86_ENU.exe) virtuaalipalvelimelle, keinoja on tietysti monia, esimerkiksi “copy & paste”. Exe-tiedosto purkautuu automaattisesti haluttuun kansioon, jonka jälkeen käydään klikkaamassa SETUP-applikaatio käyntiin ja edetään lyehkön wizardin mukaisesti. Ei siis tämä ETL-työvälineenkään asentaminen ole vaikeaa (huomattavasti vaikeampaa voi olla löytää palvelinspekseihin sopiva Data Toolsin sisältävä tiedosto).

[Villen lisäys tähän väliin]. Huom: koko virtuaalipalvelin hässäkkä on tarpeen vain SSIS:ää eli etl-työvälinettä varten. Toki sitä voi käyttää myös tiedostojen tallennuspaikkana.

Useimmiten (=aina) analytiikkahankkeissa meidän pitää yhdistää eri tietolähteitä ja/tai muokata dataa, laskea uusia muuttujia jne.

Ja harvoin analytiikkatyövälineen oma tiedonkäsittely ja integraatio-ominaisuudet riittävät tähän. Tai se vaatisi kovaa koodaamista. Itse pitäisin analytiikkasoftan analytiikkakäytössä ja hankkisin aina parhaan työvälineen sille tarkoitettuun tehtävään. ETL-työväline ja sille dedikoitu palvelin tulee käyttöön viimeistään siinä vaiheessa jos rakennetaan tietovarastoa tai erillistä raportointitietokantaa.

Vaihtoehto SSIS:lle olisi Microsoftin Data Factory, mutta se ei ole vielä valmis tuote oikeaan datan käsittelyyn, enemmänkin tietojen lataukseen paikasta a paikkaan b. Tulevaisuudessa Data Factoryn pitäisi kuitenkin olla Microsoftin ykkösvaihtoehto pilvipohjaiseen ETL-työhön.

3. Azure SQL tietokanta

SQL tietokannan luonti on helppoa Azure Portaalin kautta, seuraava kuvasarja näyttää kuinka helppoa se on.

Valitaan New -> Data + Storage -> SQL Database


Määritellään tietokannalle nimi, kontin tilavuus, hevosvoimat, maksutapa ja lopuksi Create


Demon aineiston luonteen ja Louhian maksaman tilinauhan perusteella jätimme hevosvoimat minimiin valitsemalla B Basic-tyypin tietokannan. On siis hyvä alustavasti tuntea tarpeet ennenkuin tietokannan luo, skaalaus/hevosvoimien vaihtaminen onnistuu myös jälkikäteen (ei paneuduta tässä kuitenkaan siihen).

Azure-portaalin aloitusnäkymään ilmestyy jälleen sininen suorakulmio, nyt tiedätte jo mitä se tarkoittaa… hetken odottelun päästä tietokanta on käyttövalmiina. Valmistumista odotellessa voidaan siirtyä jälleen seuraavaan kohtaan.

Noniin, nyt se on pystytetty, tässä todiste siitä (tietokantaan pääsee käsiksi vaikkapa omalta läppäriltä SQL Management Studio:lla, edellyttää, että määrittelet ip:si sallituksi Azure-portaalista: Firewall settings)



4. Azure Machine Learning Studio

Sanotaanko, että hommat senkun helpottuu tässä vaiheessa, tämä on jo niin helppoa, oikein hirvittää. Siispä asiaan, tässä on käytännössä vain 2 välivaihdetta

Valitaan Azure-portaalista New -> Data + Analytics -> Machine Learning


Kun valinta on tehty, ponnahtaa selaimeesi uusi ikkuna, joka näyttää seuraavalta


Tämä on vanha näkymä ja uusi näyttäisi olevan myös tarjolla (sininen laatikko ylälaidassa), mutta kun sitä painaa päästään takaisin samalle sivulle (loogista?).

Azure ML:n käyttöä varten tarvitsee (ainakin ensimmäisellä kerralla) luoda ns. Azure ML Workspace (työtila) ja Storage account. Nämä 2 asiaa saadaan luotua yhdellä kertaa seuraavasti

Valitse New -> Data Services -> MACHINE LEARNING -> Täytä tiedot ja luo


Azure ML:n käyttöliittymän kuvia tulee blogisarjan edetessä.


Enää puuttuu siis Power BI, Ville ota koppi ja nopeasti, menee mun laskuun, hopihopi!

5. Microsoft Power BI

Ville tässä taas. Olen ottanut aiemmin käyttöön MS Power BI desktopin. Asennus + ensimmäiset raportit kesti pari minuuttia. Katsotaan mitä kestää pilvipalvelun käyttöönotto.

Huomioikaa, että nyt ei olla enää Azure-ympäristössä. Tämä on enemmänkin sitä Office 365 maailmaa. Mutta mennään asiaan.

  • Mene osoitteeseen: https://powerbi.microsoft.com/en-us ja klikkaa Get started free
  • Valitse joko Power BI Desktop for Windows tai Power BI (pilviversio). Me otamme jälkimmäisen
  • Kirjaudutaan Microsoftin käyttäjätilillä (ks. kohta 1.), painetaan kerran tai pari OK
  • Ja valmis. Kesto: 42 sek.
Microsoft Power BI käyttöönotto 1 Louhia
Valitse haluatko desktop-sovelluksen vai pilviversion. Molemmat ilmaisia.

Microsoft Power BI käyttöönotto Louhia

Microsoft Power BI käyttöönotto 2 Louhia

Microsoft Power BI käyttöönotto 3 Louhia
Power BI valmiina ottamaan yhteyttä Azure SQL -tietokantaan tai muihin tietolähteisiin.

Otimme nyt käyttöön Power BI:n ilmaisversion. Siinä on rajoituksensa verrattuna Pro-versioon. Löydät erot täältä: https://powerbi.microsoft.com/en-us/pricing/

Pro-version hinta on siis 9,99$/kk/käyttäjä eli esim. 10 hengen organisaatiossa vuosikustannus olisi 1200$.

No niin, nyt meillä on koko paketti kasassa. Asensimme siis:

  • Azure virtuaalipalvelimen
  • ETL-työvälineen ko. virtuaalipalvelimelle
  • Azure SQL -tietokannan
  • Azure ML  analytiikkaa varten
  • MS Power BI:n raportointia ja analytiikkatulosten visualisointia varten

Nyt meillä on pystyssä täysiverinen, skaalautuva, täysin pilvipohjainen arkkitehtuuri, jolla voisi lähteä toteuttamaan myös tietovarasto- ja raportointiympäristöä.

Toisaalta jos sinulla on jo oma ETL-työväline (esim. SSIS, Informatica, IBM DataStage, Pentaho…) tai datasetti on valmiina ja odottaa pelkkää numeronmurskausta, voit skipata kohdat 1-3 eli hankkia pelkän Azure Machine Learning Studion.

Teknisen arkkitehtuurin ja sovellusten asennukseen käytetty aika

[Lasse]: Kohtien 1.-4. suorittaminen kesti pyöreästi 4h, sisältäen ruoka- ja kahvitauot. Suurin osa ajasta meni tiedoston SSDTBI_VS2012_x86_ENU.exe siirtämiseen ja asentamiseen palvelimelle, onneks säästy kuitenkin massii.

[Ville]: Kohdan 5 suorittaminen kesti 42 sekuntia. Sisältäen vessa- ja kahvitauot.

Seuraavassa osassa siirrymme lähdetietojen pariin. Pysy kuulolla!

13.01.2016 / Ville Niemijärvi

parked-bikeKäytännön ennustavan analytiikan blogisarjamme ensimmäinen osa kuvaa kuvitellun yrityksemme liiketoimintaongelman. Eli määritellään miksi analytiikkaa ylipäätään lähdetään tekemään.

Yrityksen esittely

Yrityksemme on vähittäiskauppa. Se myy polkupyöriä ja niihin liittyviä tarvikkeita ja lisävarusteita.

(Kyllä, kyseessä on Microsoftin AdventureWorks -demoaineisto. Voit ladata omasi vaikka täältä)

Toimitusjohtajan nimi on Eddy. Entinen pyöräilijä, jonka vanhemmat olivat ruokakauppiaita. Hänellä on intohimo työhönsä. Eddy haluaa nähdä kaikki kansalaiset viilettävän muna-asennossa trikoissa asfalttiteitä pitkin.

Suomen Polkupyörätukku olkoon hyvä vertailukohta. Yritys voisi olla myös sopimusliiketoimintaa harjoittava, esimerkiksi sähköyhtiö, mediatalo (sanomalehdet, TV, tilauskanavat kuten HBO, Netflix), kuntosaliketju tai pankki- ja vakuutusalan yritys.

Aivan samat menetelmät pätevät näihin toimialoihin. Sopimusliiketoiminnassa tosin asiakkuuksien johtaminen hieman poikkeaa koska usein asiakas on naimisissa yrityksen kanssa, kunnes lopettaa asiakassuhteen. Poistumamallinnus eli asiakaspito on tärkeää. Samoin lisä- ja ristiinmyynti.

Vähittäiskaupassa shoppaillaan naapurissakin ja siellä mitataan taas esimerkiksi brändilojaliteettia mutta voidaan tutkia myös poistumaa, sen määrittäminen on vain hankalampaa. Ostoskorianalyysi on yksi vaihtoehto tutkia mitä tuotteita ostetaan yhdessä.

Sopimusliiketoiminnassa älykkäällä prospektoinnila voidaan etsiä ne asiakkaat, jotka todennäköisemmin tarttuvat myyjän puhelinsoittoon tai tarjoukseen ja parantaa konversiota. Vähittäiskaupassa taas suurempi merkitys on mainonnalla – oli se kohdennettua suoramainontaa tai massana eri medioissa.

Molemmissa tapauksissa asiakkaskäyttäytymisen ymmärtäminen edesauttaa asiakkaisiin vaikuttamista .


Analytiikka pitäisi tukea yrityksen liiketoimintastrategiaa. Tai siitä johdettuja taktisia ja operatiivisia tavoitteita.

Tai sitten analytiikan pitäisi olla työväline liiketoimintaongelmien ratkaisemisessa.

Toki analytiikka voi olla erilaisten hypoteesien testaamista mutta mielellään niin, että ne tähtäävät johonkin suurempaan tavoitteeseen.

Analytiikka ei ole nättiä käppyrää, visualisointia tai nice-to-know raportteja. Niiden sijaan analytiikan avulla pyritään muuttamaan toimintaa. Aiheuttamaan muutos.

Polkupyöräkauppamme toimari, Eddy, on yhdessä hallituksen kanssa tehnyt linjavetoja. He haluavat muutosta. Yritys tulee satsaamaan jatkossa vaatelinjaston liikevaihdon kasvattamiseen. Eddy näkee, että kireät pyöräilyshortsit takapuolipehmusteilla tulee lyömään itsensä läpi ensi kesän helteillä rahvaankin joukossa.

Toisaalta Eddy haluaa, että markkinointipäällikkö Lance, joka haaveilee salaa oman “lisäravinnekaupan” pystyttämisestä, karsii kulujaan ja keskittää mainoskampanjansa fiksummin. Jokaisen persaukisen perusautoilijan luokse ei tarvitse suoramarkkinointikirjettä lähettää vaan keskitytään vihreisiin, muotitietoisiin kaupunkilaisiin, joilla löytyy kuitenkin pätäkkää.

Eddy järkeilee, että on parempi antaa luonnon ja sepelvaltimotaudin hoitaa autoilevat möhömahat. Sitä kautta markkinoille saadaan parempia kuluttajia. Pyöräileviä kuluttajia.

Lisäksi Eddy laittaa osto-johtaja Bernardille ukaasin:

“Älä tilaa niitä väärän värisiä rättejä varastoon jos niitä ei kerran kukaan osta. Nehän homehtuu sinne. Ranskalaisena luulisin sinun tajuavan jotain muodin päälle?, tuhahtaa Eddy sillä tavoin ivallisesti kuten voisi kuvitella belgialaisen tekevän kun pääsee pomottamaan ranskalaista.

Toimitusjohtaja-Eddyn ja hallituksen muodostamat tavoitteet ja ns. must-win-battles kirjataan ylös:

  • vaatelinjaston myynnin pitää kasvaa 20%
  • myynnin kulujen pitää laskea 20%
  • varaston arvon pitää pienentyä 30%

Lance ja Bernard ryhtyvät hommiin koska heidän oma palkkansa riippuu siitä, miten hyvin he täyttävät tavoitteensa. Niin kuin kaikissa fiksuissa yrityksissä on, vai mitä?

Kaverit lyövät pyöräilykypäränsä yhteen ja tuumailevat:

  • jotta me voimme myydä enemmän vaatteita, meidän pitää tietää ketkä vaatteita ylipäätään ostavat, meidän pitää ymmärtää asiakaskäyttäytymistä
  • kun tiedämme ketkä vaatteita ostavat, voimme kohdistaa myynnin pelkästään heille.
  • näin myynnin konversio kasvaa eli saamme myytyä pienemmällä myyntiväellä isommalle porukalle
  • jotta varaston arvo laskee, meidän pitää välttää huonosti kiertävien tuotteiden sisäänoston
  • tulevien kuukausien myynnit pitää siis nähdä etukäteen. Näin voimme ennakoida kysynnän nousut ja pudotukset hyvissä ajoin ja osto voi reagoida niihin.

Kaverukset johtavat tavoitteista seuraavat toimenpiteet:

  • mallinnetaan keitä asiakkaamme ovat, selvitetään miten he käyttäytyvät
  • mallinnetaan ketkä ostavat vaatelinjaston tuotteita ja mitkä taustatekijät selittävät ostoa (ikä, sukupuoli, maantieteellinen sijainti, muu ostokäyttäytyminen jne.)
  • sovelletaan mallia nykyiselle aktiiviselle asiakaskannalle ja selvitetään ketkä heistä olisivat todennäköisempiä ostajia uusille tuoteryhmille
  • kohdennetaan suoramarkkinointi vain näille todella potentiaalisille kuluttajille
  • tehdään jatkuvasti päivittyvät myyntiennusteet tuleville kuukausille per tuoteryhmä ja annetaan nämä ostajille ostopäätösten tueksi

“Päivän päätteeksi tehdään enemmän rahaa pienemmilä kustannuksilla, saadaan mojovat bonukset ja pidetään työpaikkamme.”

Näin yritys on määrittänyt itselleen strategiasta johdetut tavoitteet, jotka on purettu konkreettisiksi toimenpiteiksi. Seuraavaksi selvitämme millä analytiikan keinoin voimme tukea tai ratkaista nämä liiketoimintaongelmat. Mitä työvälineitä ja mitä dataa siihen tarvitaan?

Lasse, maailman vahvin analyytikko, oletko selättänyt jo influessan? Meillä olisi hommia!

Kuva: Sylwia Bartyzel (https://unsplash.com)

12.01.2016 / Ville Niemijärvi

Aloitamme lyhyen blogisarjan miten tehdä analytiikkaa Azure Machine Learning:llä.

Sarja käydään läpi tehokkaasti vajaassa 3 viikossa, sisältäen 3-4 juttua. Sarja päättyy Talentum Eventsillä pitämääni asiakasanalytiikka koulutukseen, jossa koko prosessi käydään läpi.

Ei teorioita, ei jaaritteluja, pelkkää asiaa

Suun louskuttajia aina löytyy hype-termien tiimoilta ja olemme mekin varmasti syyllistyneet kliseiden toistamiseen.


Nyt onkin aika näyttää miten analytiikkaa todella tehdään. Käytännössä ja konkreettisesti. Alusta loppuun. Ja mitä se maksaa. Ei teorioita. Ei höpöhöpöä ja liirulaarumeita.

Toteutamme sarjassa koko prosessin liiketoimintaongelman määrittämisestä, teknisen ympäristön pystyttämiseen, datan muokkaamiseen, mallintamiseen ja tulosten visualisointiin sekä tuotantokäyttöön.

Käytämme juuri niitä samoja työvälineitä ja menetelmiä mitä käytämme todellisissakin projekteissa. Seuraamalla blogisarjaa, näet siis miten käytännössä analytiikka tehdään Microsoft Azure -ympäristössä ja voit toistaa sen omassa yrityksessäsi ja säästää konsultointikustannuksissa.

Noudatamme hieman modifioitua CRISP-DM metodologiaa. Sisältäen seuraavat vaiheet:


  1. Määrittele liiketoimintaongelma
  2. Kerää data
  3. Muokkaa, käsittele ja rikasta tietoa (ns. etl-prosessi) ja tallenna se tietokantaan
  4. Analytiikka eli erilaisten ennustemallien toteutus Azure ML:ssä
  5. Tulosten visualisointi (MS Power BI)
  6. Ennustemallien tuotantokäyttö eli kohta jossa naureskellaan matkalla pankkiin

Pelkkää pilveä: All-in-Azure

Rakennamme koko touhun ETL-prosessista (datan lataus, muokkaus ja käsittely), tietokantaan ja analytiikkamallinnukseen Azureen. Eli pilveen. Yhtään kilkettä ei asenneta omalle palvelimelle.

Otamme käyttöön Azure virtuaalikoneen jota käytämme lähinnä ETL-työhön (MS SSIS). Toinen vaihtoehto olisi hyödyntää Data Factoryä, Microsoftin pilvipohjaista integraatiotyövälinettä. Tämä ei ole kuitenkaan vielä läheskään valmis suorittamaan vähänkään vaativimpia datan muokkaus toimenpiteitä eli ns. etl-työtä. Tai se vaatii koodaamista. Näin on fiksummat opastaneet.

Otamme käyttöön Azure SQL -tietokannan, jonne datat tuupataan. Tällä yhdistelmällä voisimme rakentaa myös varsinaisen tietovaraston, aivan kuten rakentaisimme sen yrityksen omille palvelimille on-premise. Looginen arkkitehtuuri on aivan sama.

Lisäksi käytämme Azure Machine learning studiota analytiikkamallintamiseen eli mallinnamme dataa tarpeesta riippuen eri algoritmeilla. Teemme ainakin:

  • asiakassegmentoinnin
  • asiakaspoistumamallinnuksen
  • myyntiennusteen
  • lisämyyntiennusteen

Vaikkakin teemme nyt kaiken Azuressa, voisimme yhtä hyvin käyttää Amazonia tai analytiikkamallinnuksessa RapidMinerin pilveä. Käytämme nyt Azurea ja Microsoftin työvälineitä koska se on yksinkertaisesti tutuin vaihtoehto ja paljon kattavampi/monikäyttöisempi (virtuaalikoneet, blob-storage, SSIS, Power BI, ML) kuin esim. pelkkä RapidMiner.

Ja vaikka keskitymme nyt asiakasanalytiikkaan, voi samaa arkkitehtuuria ja algoritmeja hyödyntää toimialasta riippumatta ja vaikka tuoteanalytiikassa (esim. vikaantumisen ennakointi, tuotemenekkien ennustaminen).

Laitamme kaiken Lassen, maailman vahvimman analyytikon, luottokortille. Blogisarjan päätteeksi katsomme mikä on Lassen kortin saldo ja meneekö ensi kuukausi ylitöiksi. Toisin sanoen näytämme mitä tämä oikeasti maksaa ja voit arvioida mitä se maksaisi sinulle.

Jos sinua kiinnostaa tietää aihepiiristä lisää tai haluat, että näytämme/selvitämme jotain erityistä osa-aluetta tarkemmin, ole rohkeasti yhteydessä.

Voit nakata meille viestiä:

Aikaa on vähän joten Lasse, paras ryhtyä hommiin.


Jos haluat vähän makustella mitä asiakasanalytiikka tai asiakastiedon rikastaminen on, kannattaa tutustua seuraaviin juttuihin:


8.01.2016 / Karri Linnoinen

With the awesome growth, and availability of data today, businesses have a wealth of information for analysis. Websites and web shops generate clickstream data about pageviews and customer preferences. When we add this massive amount of ‘web data’ to the mix, it creates a challenge to find the right analytics tool to leverage all this data being produced and make [business] sense of it.

Data Visualization and Self-service data discovery are the hot topics for analytics right now. And a tool that addresses this growing need for data discovery is Tableau.


Whether you’ve heard of Tableau or not, here’s what you need to know:


Tableau helps people see and understand data
Using its own proprietary Visual Query Language (VizQL), Tableau is able to translate the user’s actions into database queries and expresses them graphically. This means data is visualized for fast analytics and helps you gain important insight into your data.


It’s super easy to use
Tableau requires no programming know-how to use, and focuses on data exploration using its drag & drop functionalities.
Once you’ve connected to a data source, it’s a matter of dragging dimensions and key figures onto the canvas, and Tableau does the rest.
For advanced calculations, Tableau supports Level Of Detail (LOD) expressions; an elegant and powerful way of answering questions through multiple levels of aggregation.


Have lots of different types of data sources? No problem-o
Tableau connects to tons of different data sources and allows you to blend data for analysis, without scripting or difficult data prep.
To connect Tableau to a data source, you just need the connection details and login information of your data source, and you’re good to go.


Just out of interest, we connected Tableau to the bilot.fi Google Analytics account to visualize our web traffic. Connecting to the service only took a few minutes and we had the previous year’s page views on screen. Our average unique pageviews are just under 1200 per day! We can also see that traffic is significantly lower during June and July, which are very popular summer vacation months in Finland.

Pageviews from 2015 for bilot.fi visualized in Tableau


Joining data from different data sources is also easy with Tableau’s graphical interface. Select a table from the data source and drag ‘n’ drop it to join with another data source’s table. Different join clauses and relations can be selected, as well as the connection type — Tableau supports Live or Extract connections natively to all data sources!


Best Practices sewn-in
Data visualization best practices are sewn into Tableau, allowing you to gain richer insight from your data.
Depending on the data being displayed, Tableau recognizes the best way to visualize the data and automatically highlights appropriate chart types for the user.
This is a fantastic feature, since a very common problem with visualizing data is that data is constantly being displayed incorrectly or badly using the wrong types of charts.


Data updates automatically
Tableau can be set to connect to your data via a live connection or get automatic updates on a schedule, regardless of the data source — there’s even a hybrid alternative which lets you schedule a subset of the data and call a live connection later!

If this has whet your appetite for data discovery, download a free trial of Tableau by clicking the link below.




Bilot is also hosting a Breakfast Club event about TABLEAU DATA VISUALIZATION