Ahogy a cégek egyre nagyobb lelkesedéssel és bizalommal fordulnak az analitikai megoldások felé, úgy kell egyre nagyobb léptékben alkalmazkodnia a technológiai megoldásoknak a gyorsan változó üzleti igényekhez.
Az elmúlt pár évben az adatelemzés, különösen a prediktív analitika jelentős változásokon ment keresztül, új üzleti modellek jelentek meg, számos startup látott napvilágot a terület új, „emberközelibb” vagy éppen adott célterületre fókuszáló szofisztikáltabb megoldásával. Egyre több olyan cég van, ami a prediktív analitika segítségével irányítja operatív tevékenységének egy részét, vagy határozza meg stratégiai irányelveit.
Változások az adatok előkészítésében
A legtöbb cég még mindig saját keretein belül szeretné megoldani az adatok előkészítését és rendelkezésre állásuk biztosítását. Ez viszont a növekvő adatmennyiség miatt egyre kilátástalanabb küzdelem lesz a megfelelő eszközök nélkül: adatgyűjtő, adattisztító, adatmanipuláló és fejlett adatelemző alkalmazások elengedhetetlenek, ha prediktív analitikával szeretnénk foglalkozni és annak hasznát szeretnénk élvezni, nem pedig a vele járó terheket cipelni.
A publikus felhő szolgáltatók nagyobb teret nyernek
Az AWS, Google Cloud, Rackspace, Microsoft Azure, DigitalOcean dinamikusan növekvő felhő szolgáltató platformok, melyek exponenciálisan bővülő ügyfélköre is mutatja, hogy a cégek egyre nagyobb bizalommal tárolják adataikat és futtatják az adatvezérelt alkalmazásaikat ezeken a platformokon. Elvitathatatlan előnyeik a költséghatékonyság, magas rendelkezésre állás, skálázhatóság és tervezhetőség; csupa olyan erény, mellyel egy cég saját maga által kialakított környezet sem technológiai, sem kapacitás, sem üzemeltetés oldalon nem tud versenyezni.
Hadoop komoly versenytársakat kap
A lassan 10 éves nyílt forráskódú megoldás továbbra is meghatározó marad, de számos feltörekvő és gyorsan teret nyerő megoldás lohol a nyakán, elég csak az Apache Spark-ra és az Apache Drill-re gondolni. Ezek viszont nem csak helyettesíteni tudják a Haddop-ot, de alá is tudnak dolgozni; a Spark például a Hadoop fájlrendszer szintű keretrendszerét, a HDFS-t is tudja váltani, de magát a Hadoop-ot is, révén, hogy a Spark is hasonlóan adat-intenzív elosztott alkalmazásokat támogató keretrendszer.
OLTP + OLAP = HTAP
Miközben régóta élő irányelv az analitikai és operációs rendszerek szeparálása, kialakulóban van egy olyan megoldás, ami lehetővé teszi a két, eltérő célok mentén szerveződő adatfeldolgozási metódus összeházasítását. Ez azért fontos, mert az adatduplikáció, a felesleges adattárolás és a két, különböző cél miatti adatfeldolgozás okozta szűk keresztmetszet így megszüntethetővé válik. Ez lehetővé teszi, hogy a vállalatok azonnal reagálni tudjanak a prediktív analitika adatai szerint a változó ügyféligényekre és ezen adatokat minél inkább valós időben tudják előállítani.
Adatok azonosítása
Ma már nem is annyira az a kérdés, hogy milyen és mennyi adatot, honnan és hova gyűjtsünk, hanem inkább az, hogy amit begyűjtöttünk, valóban tudjuk-e értelmezni, pláne, ha az adatot kvázi kiragadtuk a környezetéből. Ezért szükséges az adatok megjelölése, taggelése már a begyűjtés pillanatában; ezáltal értelmezhetőbbé, így feldolgozhatóbbá, a végén pedig a kinyert információk révén hatékonyabbá tehetőek.
NoSQL térhódítása
Ez a folyamat megállíthatatlan. A NoSQL (not only SQL) nem csupán egyféle technológiát takar: lehet dokumentum, oszlop, grafikai, gráf stb. alapon szerveződött adatbázis, melyek célorientált felépítésüknek köszönhetően a web és az IoT világa számára gyorsabb és egyszerűbb adatkezelést, tárolást és adatprezentálást tesznek lehetővé. Számos megoldás (pl. MongoDB) esetében pedig már komoly erőfeszítéseket tesznek annak érdekében, hogy analitikai célokat is ki tudjanak szolgálni.
Innovatív adattárolás
Az SSD (solid-state drive) egyre nagyobb szerepet kap az adat tárolásban és feldolgozásban. Napjainkban ugyanis komoly szűk keresztmetszet lehet az adatfeldolgozásban hatalmas adatmennyiségek a megfelelő helyen és megfelelő időben történő prezentálása, mivel a nagy kapacitású hagyományos tárolók írási/olvasási sebessége összehasonlíthatatlanul lassabb, mint SSD –s társaiké.
Megosztott adatfeldolgozás
Nem összetévesztendő azonos adatok más formátumban történő szeparált tárolásával. A megosztott adattárolás alatt olyan rendszereket kell érteni, mint pl. a Hadoop File System, mely több node-ján tárolja ugyanazon formátumban ugyanazon információkat a minél gyorsabb adatelérés és feldolgozás érdekében. Maga a keretrendszer viszont szinkronban is tartja a node-okat, illetve ezáltal biztosítja azt is, hogy egy tároló meghibásodása esetén az adatok ne vesszenek el.
Forrás: http://www.enterpriseappstoday.com/