Přehled výzkumu
DataHub
Nástroj pro sběr, zpracování a využití dat z IoT technologií ve veřejném sektoru (Smart City). Integrace dat z IoT senzorů a z registrů veřejných institucí.
Algoritmus zpětného učení
Rekomendační algoritmus se zpětným (oboustranným) učením. Systém iterovaných analýz dat o chování ekonomických ukazatelů a následné automatické vyhodnocení dopadů těchto změn na dosažení požadovaných ekonomických výsledků společnosti.
FT Park rozpracoval svůj nápad rekomendačního algoritmu v oblasti, která je v souladu s účelem i předmětem činnosti ústavu a směřuje mimo akcent jeho účelu (tj. mimo oblast zdravotnictví). Na základě zkušeností ředitele FT Park s předchozími úkoly v oblasti tvorby ekonomických IT systémů byl rozpracován výzkumný nápad rekomendačního algoritmu, u kterého byl nalezen nový prostor pro komercializaci zařazením zpětného učení.
Využití Konceptu pro výpočet ekonomických ukazatelů není závislé na zvolené aplikaci, protože jde o výpočetní algoritmus, který lze napojit na různé zdroje dat. Detail fungování algoritmu si lze představit jako opakující se analýzy dat o chování ekonomických ukazatelů v závislosti na provedených změnách v nastavení cenotvorby a následné automatické vyhodnocení dopadů těchto změn na dosažení požadovaných ekonomických výsledků společnosti. Nezbytnou vlastností RA je neustálé učení při každé změně v nastavení cenotvorby. Učení probíhá 2 směry (interakcí/feedbackem uživatele, automatickým vyhodnocením změn v nastavení cenotvorby). Další možný způsob, jak algoritmus učit, je vkládání výsledků analýz ekonomických ukazatelů, například elasticity poptávky na změnu cen, manuálně přímo do algoritmu. Ten poté tyto výsledky poté použije pro vytváření návrhů změn v cenotvorbě.
Rozpracovaný algoritmus pro analýzu Loyalty Specification
V prostředí dnešní silné konkurence je obtížné udržet rozdílnost výrobků a zákazníci se tak zaměřují na cenové rozdíly. Informace jsou dnes velmi snadno dostupné, spotřebitelé například hojně využívají na internetu srovnávače cen, kde se jim během pár chvil zobrazí veškeré informace o produktech a je vyhodnocena ta nejvýhodnější nabídka na trhu. V tomto případě se věrnostní program společnosti stává zvlášť významný a bonusy jsou prostředkem k zaměření pozornosti zákazníka na jiné aspekty než na cenu a k získání jeho loajality
Velký zlom nové éry věrnostních programů sahá do počátku 80. let 20. století, konkrétně do roku 1981, kdy letecká společnost American Airlines zahájila program Frequent Flier (česky častý pasažér). Účastníci tohoto programu získali za každý let určitý počet kreditů podle letových vzdáleností v mílích. Nasbírané body mohly dosáhnout až takového počtu, že vznikla možnost získat letenku zdarma pro jeho účastníka nebo členy jeho rodiny. Zákazníci této společnosti byli tak motivováni k jejich loajalitě díky možnosti využití této výhody. Tento program je typickým příkladem pro bodový typ věrnostního programu. Dnes jsou věrnostní programy využívány hojně ve všech oblastech, od zmiňovaných leteckých společností až po maloobchodní řetězce. Hojnost využívání a oblíbenost také u českých spotřebitelů dokazuje průzkum společnosti MasterCard. Češi podle tohoto průzkumu, který byl realizován v listopadu 2015 na reprezentativním vzorku 1 000 respondentů internetové populace, nejčastěji vlastní dvě až čtyři karty, přičemž alespoň jednu věrnostní kartu má 92 % Čechů. Vzhledem k počtu karet a přeplněným peněženkám by 72 % Čechů uvítalo sloučení věrnostních karet do karty platební. I když počet karet na osobu jednu osobu vychází čtyři, lidé v průměru používají pouze 2,5 věrnostní karty. Z průzkumu také vyplynulo, že ženy jsou častějšími držitelkami a věkově je nejsilnější skupina 35-44 let. Jak již bylo uvedeno v předchozí kapitole, věrnostní programy jsou jedním z nástrojů podpory prodeje. Oproti ostatním nástrojům se liší jedním důležitým znakem, kterým je dlouhodobost. Věrnostní program je dlouhodobý proces působení na zákazníka a získávání jeho věrnosti. Ostatní nástroje jako kupony, vzorky, prémie, reklamní dárky jsou na zákazníka zaměřeny pouze krátkodobě a mají okamžitý efekt. Věrnostní program je určený obzvlášť pro stálé zákazníky, kterým je za jejich věrnost poskytnuta k produktu či službě nějaká přidaná hodnota. Aby zákazník mohl využívat těchto odměn, musí splňovat samozřejmě určité podmínky daného věrnostního programu. Při zřizování věrnostní karty je zákazník povinen udat své základní osobní údaje. Bohužel v praxi společnosti s daty o svých zákaznících pracují velmi málo nebo dokonce vůbec. Je to velmi náročná práce, která nepřináší okamžité výsledky, ale pokud s nimi organizace dokáže pracovat, může být jejich program vysoce efektivní a atraktivní oproti konkurenci. Údaje o zákaznících jsou ovšem důležitější, než si většina organizací myslí. Díky elektronické věrnostní kartě získává informace o každém nákupu daného zákazníka a může tak sledovat jeho nákupní chování. Na základě těchto dat může věrnostní program personifikovat, kdy zákazníkovi zasílá relevantní nabídky související s jeho uskutečněným nákupem a je zde velká pravděpodobnost, že by mohl nabídky využít. Důležité jsou i sociodemografické údaje, které by měly sloužit k segmentaci zákazníků a přistupovat tak ke každé skupině trošku odlišně. To se bohužel u většiny věrnostních programů neděje. Co se týče náročnosti, vybudovat fungující věrnostní program, který bude naplňovat stanovené cíle, je pro mnohé organizace opravdu tvrdým oříškem. Následující řádky jsou věnovány základním problémům, se kterými se provozovatelé věrnostních programů potýkají.
SiteBuilder - Architektura
Datový model SiteBuilderu popisuje kompletní strukturu sitebuilderu, všechna data, která jsou potřebná k vykreslení a ke komunikaci se serverem. Jsou to tři objekty: SiteInfo (popisuje celou site, resp. data aktuálního zákazníka), SelectedPage (popisuje aktuální stránku) a Builder (popisuje data dostupná pro UI Builderu - tj. všechno, co se má zobrazit k výběru při tvorbě stránky).
Architektura RIA SiteBuilder
RIA SiteBuilder = Aplikace na úrovni webového prohlížeče v JS, komunikace s vrstvou PHP Nette pomocí REST (přes adresu URL), vytvoření stránek ve struktuře Header, Content area s n-sloupcovou sazbou a Footer, Content area se skládá z boxů obsahujících Widgety.
Generování statických HTML stránek.
SiteBuilder Nette Form Editor (NFE)
Náš vlastní sitebuilder, kde se používají formuláře v Nette pro sestavení a editaci webu - varianta pro nasazení v BackOffice. Využívá stejné API jako RIA SiteBulder (JavaScript).
Data API -> Sitebuilder
SB využívá jedinou funkci API a to builder_init, jež vrací kompetní informace o stránce
po rozbalení dat z JSONu má SB k dispozici pole veškerých dat o stránce a vybrané page
daty naplní jednotlivé formuláře
při jakékoliv změně SB znovu načítá všechny data -> refresh celé stránky
Data Sitebuilderu -> API
SB využívá servisy API pro Pixyho
pomocí cURL volá příslušné url API a $_POSTem posílá změněné parametry
stavové hlášky (i s Pixyho verzí) -> návrat volání fce při jiném než kladném výsledku (vyřešeno pomocí stavových kódů, Formát je: JSON pole s prvky "status" a "data".
status:
1 OK
0 chyba při volání fce, nesprávné/chybějící parametry
-1 chyba autorizace (neplatná session)
data:
status = 1, očekávaná data
status = 0, data popis chyby (ještě není implementováno do všech fcí)
status = -1, data nic
{"status":0,"data":"id_site and id_template arguments must be passed; via POST method"}
Rozpracovaný algoritmus pro vytvoření HR programu
Pomocí algoritmu vznikne HR program, který bude sloužit společnostem při nabírání nových zaměstnanců i pro lepší orientaci v současné strukuře.
HR program bude sloužit jako živá databáze získáných CV. Podle klíčových slov, obor, znalostí, dovedností, zkušeností a jiných atriibutů důležitých pro nabírání nových zaměstnanců, bude možné vyhledat a tímpádem doporučit vhodnou osobu na neobsazenou pozici. Zároveň systém dokáže pracovat s informacemi získánými během pracovníc pohorů na jiné pozice. Dojde tedy k přímém oslovování vhodných kandidátů napříč různou typologií pozic, na které se hodí a mají pro ně dané kompetence
Algoritmus strojového učení (ML) v bioinformatice
Bioinformatika je dnes primárně o datech. Hlavním problémem dnes je jejich samotné zpracováním, které je
Pro řešení problému s přebytečným datovým tokem jsou nejvhodnější dva způsoby.
Je možné zvýšit počet serverů pro ukládání a zpracování dat. Povolit kompresi. Vývoj vlastních algoritmů archivace dat. Přichází však další problém - s rostoucím počtem serverů se zvyšuje také čas potřebný k nalezení určité informace. Dobrou zprávou je, že strojové učení by mohlo urychlit výkon algoritmu vyhledávače.Obrovské společnosti jako Google, Facebook a Amazon používají algoritmy vlastního vyhledávače již řadu let. Co se týká společnosti Google, algoritmus vyhledávače je klíčem k úspěchu společnosti. Jako základní technologii využívá strojové učení ke zpracování rozsáhlých řetězců dat na celém světě. Mimochodem, už jsme vyřešili úkol zdokonalení algoritmu vyhledávače pro jednoho z našich klientů.
Druhým způsobem je způsob jak vypočítat „hodnotu“ dokumentu. Účelem výpočtu hodnoty je klasifikovat dokumenty podle jejich relevance a odstranit dokumenty s nízkou důležitost. Vzorec by se měl vypočítat samostatně pro každou skupinu dokumentů. Je téměř nemožné to udělat ručně. Všimněte si také vysoké možnosti udělat chybu, zejména pokud se dokument týká dříve nezapsaného nového tématu. Takový přístup vyžaduje tým kvalifikovaných odborníků a hodně jejich drahocenného času. Strojové učení může lidem pomoci při výpočtu „hodnoty“ dokumentu podle vzorce. Algoritmy mohly vzít několik dokumentů, jejichž známky byly ručně zpracovány člověkem, a provést matraci pro jiný dokument v daném tématu podle počtu faktorů.
VaV software pro konsolidaci a algoritmické vytěžení velkých dat
Předmětem projektu je výzkum a vývoj software, který využívá algoritmů pro konsolidaci a vytěžení velkých dat (big data) v segmentu mezinárodní přepravy osob.
Předmětem projektu je výzkum a vývoj software, který využívá algoritmů pro konsolidaci a vytěžení velkých dat (big data) v segmentu mezinárodní přepravy osob. Kiwi.com patří v tomto oboru k nejrychleji rostoucím podnikům na světě a již nyní disponuje nejrozsáhlejším souborem dat na světě v dané doméně. Výstupy projektu budou vystavěny s využitím principů statistického modelování, strojového učení a prvků umělé inteligence. Výstupem projektu bude software.
Partner výzkumu Kiwi.com
www.kiwi.com
Aplikace VII. Safetica
VaV nového konceptu ochrany proti úniku citlivých dat v cloudu
Předmětem projektu je VaV nového konceptu ochrany proti úniku citlivých dat v cloudu. Výstupem projektu bude software, který umožní adresovat datovou bezpečnost i v institucích, které nemají data lokálně u sebe, ale primárně ve službách třetích stran. Cílem VaV je tedy softwarové řešení pro ochranu citlivých dat ve firmách a institucích veřejného sektoru, které nemají jednoduchý fyzický perimetr a jejich provoz je postaven nad cloudovými službami.

Partner výzkumu Safetica Services
www.safetica.cz
Aplikace eMAN
Předmětem projektu VaV Decentralizovaného zabezpečovacího systému (DZS) je prostřednictvím PV a EV vyvinout, otestovat a připravit pro sériovou výrobu unikátní PROTOTYP, který bude následně, po ukončení realizace projektu, zaveden do sériové výroby a uveden na trh.
Předmětem projektu VaV Decentralizovaného zabezpečovacího systému (DZS) je prostřednictvím PV a EV vyvinout, otestovat a připravit pro sériovou výrobu unikátní PROTOTYP, který bude následně, po ukončení realizace projektu, zaveden do sériové výroby a uveden na trh. Tento DZS jednoduchým, ale výjimečným způsobem integruje hardware a mobilní aplikaci (software). Produkt je tedy uceleným systémem, který se skládá z mobilní aplikace, backendu, hardwaru a připojeného mobilního zařízení uživatele.
Partner výzkumu eMan s.r.o.
www.eman.cz
Nástroj pro datovou analýzu a následnou vizualizaci výsledků
Odborné zhodnocení nástrojů pro vizualizace dat a navržení možných řešení ve vybraných oblastech. Aplikační doménou pro zadání je analýza dat v ekonomické výkonnosti podniků.
Základní kritériem pro výběr nástroje byla zadavatelem zvolena cena, respektivě možnost získat nástroj pro vizualizaci dat zdarma, možnost sdílení výstupů a postupná práce více uživatelů na jednom výstupu či projektu. Podle toho bylo z nalezených nástrojů k podrobnějšímu zkoumání vybráno pouze sedm (GoodData free, Domo free, Google Data Studio, Infogram, Metabase, Plotly Chart studio a ScaiPlatform). Mezi definovaná kritéria patřily možnosti typů vizualizací, konektorů do databází a jiných softwarů, tvorba metrik a filtrů, řízení uživatelských účtů, responsivní design, sdílení dat, nativní dokumentace a metadata a potřeba technické kapacity pro implementaci řešení.
V případě zájmu spolupráce na nezávislém výzkum, budeme rádi, když nás budete kontaktovat.