Data ja tekoäly - miten niitä hyödynnetään arvon tuottamisessa nyt
01 | 2023 Ken Ikeda, Hands-on Azure / Ratkaisuarkkitehti ja Senior konsultti
Asiakkaan ja loppukäyttäjien tarpeiden ymmärtäminen on kaiken A ja O. Älä aloita isoja toteutushankkeita tai IT ratkaisuja, ennen kuin on selvää, mitkä ovat hyödyt käyttäjille. Ota huomioon, että todellisen liiketoimintahyödyn saavuttaminen voi vaatia järjestelmien räätälöinnin lisäksi myös omien prosessien virtaviivaistamista. Sitten voidaan lähteä tekemään yhdessä arvoa tuottavia projekteja.
Vielä 5 vuotta sitten yrityksissä unelmoitiin tekoälyn ja reaaliaikaisen datan hyödyntämisestä. Termit kuten deep learning, machine learning, IoT Platform olivat vuoden 2017 Gartnerin Emerging Technology käyrän huipulla. Ja yritykset tekivät erilaisia selvityksiä ja kokeiluja aiheisiin liittyen.
Monet onnistuivat kehittämään ratkaisun, joka helpotti käyttäjän jokapäiväistä elämää, mutta toisaalta monille tekoäly ja IoT jäivät kokeiluiksi.
Nyt maailma näyttää siltä, että tekoälyä ja reaaliaikaista dataa hyödynnetään laajasti ja ne ovat osa meidän arkielämäämme työelämässä ja kotona. Monien kotona ahkeroi robotti-imuri, joka toimii itsenäisesti reaaliaikaisen datan avulla. Monet optimoivat omaa sähkönkulutusta seuraamalla Fingridin mobiilisovelluksesta sähkön hinnan vaihtelua.
Kun puhutaan tekoälystä niin ei voi olla hehkuttamatta ChatGPT:ta. On selvää, että ChatGPT kaltaiset tekoälypohjaiset chatbotit tulevat mullistamaan kaltaiseni ohjelmistokehittäjän arkea. Jo nyt ne auttavat meitä suunnittelussa, koodaamisessa ja teknisessä dokumentoinnissa. ChatGPT on vasta julkaistu, joten voin vain kuvitella mihin se kykenee muutaman vuoden kuluttua.
Silloin, kun data ohjaa käyttäjiä oikeaan suuntaan, ollaan arvontuottamisen ytimessä. Suuntia, joihin organisaatio haluaa ohjata loppukäyttäjiään, voi esimerkiksi olla:
kuluissa säästäminen
hankintojen keskittäminen yhteen paikkaan
suositukset valitsemaan tiettyä tuotetta
ennakoimaan, milloin tuote pitäisi huoltaa.
Datalla voidaan myös ohjata organisaation toimintaa ja tehostaa toimintamalleja tarjoamalla organisaation jäsenille reaaliaikainen tilannekuva liiketoiminnasta ja operatiivisesta ympäristöstä.
Tällaiset vaatimukset vaativat teknologia-alustalta paljon. Sen tulee kyetä ottamaan vastaan suuria määriä reaaliaikaista dataa ja yhdistämään datan staattiseen dataan. Lisäksi alustan tulee voida analysoida dataa ja hyödyntää jopa tekoälyä. Ja lopulta tarjota dataa lähes reaali-aikaisesti käyttäjilleen.
Perinteisesti Big Data -arkkitehtuuria on ollut haastavaa luoda, hallita ja ylläpitää. Modernisti data-arkkitehtuureja voidaan toteuttaa ainakin kolmella eri tavalla:
streaming systems
data lake
data warehouse.
Jokaisella tavalla on omat vahvuutensa, mutta yhtenäisen dataflown toteuttaminen on aina ollut haastavaa ja monimutkaista. Esimerkiksi reaali-aikaisen ja batch-datan yhdistäminen Lambda-arkkitehtuurilla tarkoittaa käytännössä kahden eri systeemin ylläpitämistä.
Nykyään tähän tarkoitukseen löytyy työkaluja ja niitä voidaan soveltaa erilaisilla arkkitehtuurimalleilla. Tässäkin on tapahtunut viime vuosina huikeaa kehitystä ja nykyajan arkkitehtuurit näyttävät aika erilaisilta kuin 5-10 vuotta sitten.
Hyvät työkalut tai arkkitehtuurikaan eivät kuitenkaan välttämättä takaa, että hieno tekninen ratkaisu tuottaa arvoa loppukäyttäjälle. Käyttäjien tarpeiden ymmärtäminen on kaiken A ja O. Älä aloita isoja toteutushankkeita ennen kuin on selvää, mitkä ovat hyödyt käyttäjille.
Pidä huoli, että jokainen kehittäjä ymmärtää, mitä ovat liiketoiminnan tarpeet ja todelliset hyödyt loppukäyttäjille. Pidä huoli tietoturvasta ja tietosuojasta, jotta käyttäjät voivat käyttää palvelua turvallisin mielin.
Ota huomioon, että todellisen liiketoimintahyödyn saavuttaminen voi vaatia järjestelmien räätälöinnin lisäksi myös omien prosessien virtaviivaistamista.
Olethan yhteydessä, jos tarvitset sparrausapua tai kehittäjiä vaativiin hankkeisiin, jossa datan tarjoilu on käyttäjäkokemuksen ytimessä. Me Kipinällä olemme erikoistuneet vaativiin ohjelmistokehityshankkeisiin, datan ja tekoälyn hyödyntämiseen ja asiakkaiden ymmärryttämiseen sekä auttamiseen. Ja loppuun vielä hiukan lisää siitä, mistä kirjoittaja puhuu ja sparraa mielellään:
Eräs suosittu työkalu analytiikkamaailmassa on Delta lake Databricksin päällä. Databricks on analytiikka-alusta, joka pohjautuu avoimen lähdekoodin Sparkiin. Se on tarjolla kaikissa suurimmissa julkipilvialustoissa eli Azuressa, AWS:ssa ja GCP:ssa. Delta Lake on avoimen lähdekoodin tietovarastointiratkaisu, joka toimii Sparkin päällä ja tarjoaa esimerkiksi tiedon eheyden tarkistukset ja tiedon historiallisen version hallinnan. Delta Lake Databricksin päällä tarjoaa mahdollisuuden yhdistää eräajopohjaisen datan reaaliaikaisen stream datan kanssa yhden alustan päällä sekä tekoälyn ja koneoppisen työkalut.