1 ISSN: 1805-4951 - Acta Informatica Pragensia
Transkript
Recenzovaný vědecký časopis / Peer-reviewed scientific journal Ročník / Year: 2014 Číslo / Number: 1 ISSN: 1805-4951 Vydává / Publisher: Vysoká škola ekonomická v Praze / University of Economics Prague Recenzovaný vědecký časopis / Peer-reviewed scientific journal Ročník / Year: 2014 Vychází dvakrát ročně / Published twice a year Číslo / Number: 1 Místo vydání / Place of edition: Praha (Prague) ISSN 1805-4951 Vydává / Publisher: Vysoká škola ekonomická v Praze / University of Economics Prague nám. W. Churchilla 4 130 67 Praha 3 Czech Republic (The European Union) IČ / ID: 61384399 Web: http://aip.vse.cz Kontakt a informace / Contact and information: Václav Řezníček – [email protected] Zdeněk Smutný – [email protected] Redakční rada / Board of editors: Stanislava Mildeová1 | University of Economics Prague, Czech Republic Klára Antlová | Technical University of Liberec, Czech Republic Martin Boháček | University of Economics Prague, Czech Republic Tomáš Bruckner | University of Economics Prague, Czech Republic Vesna Čančer | University of Maribor, Slovenia Rasa Daugėlienė | Kaunas University of Technology, Lithuania Jiří Fišer | Jan Evangelista Purkyne University in Ústí nad Labem, Czech Republic Milan Houška | Czech University of Life Sciences Prague, Czech Republic Miloslav Hub | University of Pardubice, Czech Republic Petr Kučera | Komix, Prague, Czech Republic Petr Máša | Partners Financial Services, Prague, Czech Republic Jan Ministr | VSB-Technical University of Ostrava, Czech Republic Eve Mitleton-Kelly | London School of Economics, United Kingdom Ingeborg Němcová | University of Economics Prague, Czech Republic Jan Rauch | University of Economics Prague, Czech Republic Václav Řezníček | University of Economics Prague, Czech Republic Markus Schwaninger | University of St. Gallen, Switzerland Antonín Slabý | University of Hradec Králové, Czech Republic Zdeněk Smutný | University of Economics Prague, Czech Republic Olga Štěpánková | Czech Technical University in Prague, Czech Republic Prokop Toman | Czech University of Life Sciences Prague, Czech Republic Milan Turčáni | Constantine the Philosopher University in Nitra, Slovakia Viktor Vojtko | University of South Bohemia in České Budějovice, Czech Republic Jan Voráček | College of Polytechnics Jihlava, Czech Republic 1 Šéfredaktorka / Editor in Chief OBSAH / CONTENT: Recenzované stati / Peer-reviewed papers Analýza dopadu úniků dat na tržní hodnotu firem v období 2008 – 2012 ............................... 1 / Analysis of the Impact of Data Breaches on the Market Value of Companies in the Period 2008 – 2012 Tomáš Klíma, Adam Krbušek O čitelnosti příloh datových zpráv v PDF na platformě OS X ................................................. 8 / On the Legibility of Data Message PDF Attachments on the OS X Platform Tomáš Zahradnický The Third World War? In The Cyberspace. Cyber Warfare in the Middle East. ......................................................................................... 23 Martina Knopova, Eva Knopova Business Case v podmínkách obchodního řízení a IT Governance........................................ 33 / Business Case in Terms of Business Management and IT Governance Jan Juříček CADAQUES: Metodika pro komplexní řízení kvality dat a informací ................................. 44 / CADAQUES: The Methodology for Complex Data and Information Management David Pejčoch A Project Team: a Team or Just a Group? ............................................................................. 57 Kateřina Hrazdilová Bočková, Daniela Maťovčíková, Martina Polčáková Systémový charakter modelování možných trendů důsledků klimatických změn nástroji geografických informačních systémů ......................... 70 / System Nature of Modelling of Possible Trends in the Effects of Climate Change through the Technology of Geographic Information Systems Tools Veronika Vlčková Model pre sledovanie objektu s prediktívnym riadením zdrojov streamingu v multikamerových systémoch ................................................ 89 / Object Tracking Model with Predictive Control of Streaming Sources in Multicameras Systems Dávid Cymbalák, Miroslav Michalko, František Jakab Approach to Hand Tracking and Gesture Recognition Based on Depth-Sensing Cameras and EMG Monitoring .................................................... 104 Ondrej Kainz, František Jakab Simulácia PID regulátora v programovom prostredí Matlab ............................................... 113 / Simulation of PID Controller in the Programming Environment Matlab Štefan Koprda Knižní recenze / Book reviews Digitální demence................................................................................................................. 125 / Digital dementia Václav Řezníček Zamyšlení / Reflections Informace hypermoderní doby ............................................................................................. 128 / Information in Hypermodern Age Miloš Vítek Acta Informatica Pragensia 3(1), 2014, 1–7, DOI: 10.18267/j.aip.31 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers Analýza dopadu úniků dat na tržní hodnotu firem v období 2008 – 2012 Analysis of the Impact of Data Breaches on the Market Value of Companies in the Period 2008 – 2012 Tomáš Klíma1, Adam Krbušek1 1 Katedra systémové analýzy, Fakulta informatiky a statistiky, Vysoká škola ekonomická v Praze nám. W. Churchilla 4, 130 67 Praha 3 [email protected] Abstrakt: Za posledních patnáct let dochází k nárůstu počtu i závažnosti datových úniků u firem nakládajících s důvěrnými daty zákazníků a dalších osob. Cílem řady zkoumání bylo posoudit dopad takovýchto incidentů na tržní hodnotu postižených firem, nicméně všechny se zabývaly úniky před rokem 2008. Cílem tohoto příspěvku je představit výzkum, v rámci kterého byla provedena analýza dopadu úniků dat na tržní hodnotu na vzorku 27 firem postižených takovýmto incidentem mezi léty 2008 a 2012. Klíčová slova: únik dat, tržní hodnota, analýza dopadu Abstract: In the last fifteen years we can observe significant rise in the number and seriousness of the data breaches among the companies dealing with customer data. The aim of many analyses was to determine the impact of these breaches on market value, focusing on the breaches prior to 2008. The aim of this article is to present the findings from the analysis focused on 27 companies that suffered data breach between 2008 and 2012. Keywords: Data breach, Market value, Impact analysis 2 Klíma, Krbušek 1 Úvod Hlavním problémem při určování výše škod utrpěných firmami v důsledku bezpečnostních incidentů je obtížnost získání potřebných dat. Pokud firma zažije bezpečnostní incident, v jehož důsledku jí uniknou osobní data klientů, tak je velice těžké odhadnout, nakolik ztratí důvěru klientů a investorů, stejně tak jako se nedá předem říci, zda se nestane terčem žalob ze strany postižených jedinců, popřípadě jak velké pokuty bude muset platit. Jelikož není možné přesně stanovit, jaké následky bude daný bezpečnostní incident na firmu mít, tak se ani nedá přesně určit, jak budou ovlivněny její tržby, konkurenceschopnost a podíl na trhu. Právě absence těchto dat určení celkové výše škod značně znesnadňuje. „Vzhledem k obtížnostem při odhalování skutečných nákladů různých bezpečnostních incidentů je dobré hledat alternativní ukazatele k přímým nákladům.“ (Yayla, Hu, 2011) Jedním z alternativních způsobů určení výše nákladů bezpečnostních incidentů je sledování změn tržní hodnoty postižených firem. Jelikož tržní hodnota firem odráží jejich skutečnou hodnotu a je určovaná na základě všech informací a faktů, které jsou veřejně známé v daný okamžik, tak jakýkoliv incident, který firma zažije, by se měl na její tržní hodnotě projevit. Právě změna ceny akcií způsobená určitým incidentem by měla měřit jeho finanční dopad1. Zde se tedy pracuje s předpokladem, že velikost reakce akciového trhu na specifický incident představuje očekávanou cenu daného incidentu. (Yayla, Hu, 2011) Na základě výše zmíněného vzniklo několik studií, které se snaží zjistit, jaký mají bezpečnostní incidenty dopad na tržní hodnotu postižených firem. Studie se samozřejmě zabývají pouze firmami, které jsou veřejně obchodované na akciové burze. V případě firem, které veřejně obchodovatelné nejsou, tuto metodu použít nelze, protože u nich neexistují potřebná data. 2 Rešerše studií Kevin M. Gatzlaff a Kathleen A. McCullough publikovali v roce 2010 studii zabývající se dopadem bezpečnostních incidentů na tržní hodnotu postižených firem (Gatzlaff, McCullough, 2010). Pro tuto studii byl použit vzorek 77 firem, které zažily mezi lety 2004 – 2006 bezpečnostní incident. Výsledkem bylo zjištění, že bezpečnostní incidenty, v důsledku kterých firmě unikla citlivá data, mají značně negativní vliv na cenu akcií a průměrný CAR je v časovém horizontu jednoho dne -0,84%. Dále bylo zjištěno, že se průměrná cena akcií vrátí na původní hodnotu po 40 dnech a průměrná ztráta způsobená bezpečnostními incidenty je 84 milionů dolarů. Další studie zabývající se danou problematikou byla publikována v roce 2009 (Goel, Shawky, 2009). V této studii se autoři zabývali dopadem 168 bezpečnostních incidentů, které se odehrály v období mezi lety 2004 – 2008, na cenu akcií postižených firem. Výsledkem bylo zjištění, že bezpečnostní incidenty mají negativní vliv na cenu akcií a průměrný propad ceny akcií postižených firem je 1%. Studie (Cavusoglu et al., 2004) uvádí, že firmy v průběhu dvou dnů od oznámení bezpečnostního incidentu ztrácí v průměru 2,1% ze své tržní hodnoty. Ve studii (Campbell et al., 2003) bylo zjištěno, že pokud bezpečnostní incident zahrnuje únik citlivých/důležitých informací, nastane negativní dopad na tržní hodnotu postižené společnosti a cena jejích akcií 1 Za úvahu též stojí využití této metody jako alternativy stanovení očekávaného dopadu incidentů za účelem analýzy a řízení rizik v podniku. Expertní odhad v těchto případech trpí značnou mírou subjektivity a využití přesnější metody by přineslo i relevantnější ohodnocení rizik. 3 Acta Informatica Pragensia klesne v průměru o 5,5%. Dále pak bylo zjištěno, že pokud uniknou data, která nejsou nijak významná, je dopad incidentu na cenu akcií minimální. 3 Analýza dopadu bezpečnostních incidentů na tržní hodnotu postižených firem Studie popsané výše poukazují na to, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem. Tyto studie se nicméně liší svými výsledky, které nejsou jednotné. Výzkum popsaný dále je tedy věnován vlastní analýze dopadu bezpečnostních incidentů na tržní hodnotu postižených firem, které zaznamenaly únik dat mezi lety 2008 – 2012. Toto období bylo vybráno záměrně, jelikož na rozdíl od předchozích let, z tohoto období žádné podobné analýzy zatím neexistují. Základem analýzy pak je hypotéza říkající, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem. 3.1 Popis metody CAR Při ověřování hypotézy byla použita stejná metoda, jakou kolektiv v čele s Katherine Campbell popsal a aplikoval ve své práci (Campbell et al., 2003). Hlavním důvodem jejího výběru byla možnost srovnat výsledky zde prezentované studie se studiemi historickými, což by v případě výběru jiné metody, nebo tvorby vlastní možné nebylo. Metoda CAR si dává za úkol určit rozdíl mezi očekávanou cenou akcií a cenou skutečnou. Jejím cílem je určení velikosti dopadu neočekávaných událostí na tržní hodnotu firem – mezi neočekávané události se dá zařadit například zveřejnění informací o úniku dat, oznámení mimořádných dividend, oznámení fúzí, apod. Rozdíl mezi očekávanou cenou akcií a cenou skutečnou se nazývá abnormální výnos (AR). V této studii se bude pracovat s jeho souhrnnou hodnotou, nazvanou kumulativní abnormální výnos (CAR), která slouží k určení toho, jak velký dopad měla určitá událost na cenu akcií. V tomto článku je tedy použito analýzy kumulativního abnormálního výnosu k určení vlivu datových úniků (tedy neočekávané události) na tržní cenu zkoumaných firem. Rovnice pro CAR je následující: (1) Kde t a t představují časové okno události. V případě této práce bylo časové okno zvoleno v intervalu (-3;10) dní okolo data, kdy byly zveřejněny informace o incidentu. Rovnice pro AR je následující: (2) Kde R je výnos akcií i v den t a R je výnos tržního portfolia m v den t. Pro účel této práce byl jako ukazatel pro R použit burzovní index S&P 500. Proměnná α pak je intercept a β je korelace výnosů jednotlivých akcií firmy i vůči burzovnímu indexu. Rovnice pro R je následující: (3) 4 3.2 Klíma, Krbušek Zdrojová data Pro vlastní analýzu byl vybrán vzorek 27 firem, které zažily mezi lety 2008 – 2012 únik dat2. Tyto firmy byly vyhledány díky specializovanému serveru datalossdb.org, který shromažďuje informace o bezpečnostních incidentech vedoucích k únikům dat. Veškeré informace o bezpečnostních incidentech získané z tohoto serveru byly následně ověřeny v tisku. Při výběru firem se postupovalo podle několika kritérií. Hlavním kritériem bylo, že každá z požadovaných firem musela zažít v daném časovém horizontu (od začátku roku 2008 do konce roku 2012) únik dat. Dále bylo důležité, aby každá z těchto firem byla v době úniku dat kótovaná na akciové burze. Posledním kritériem byla znalost přesného data, kdy se informace o úniku dat staly všeobecně známé. Toto kritérium je klíčové, jelikož pokud by přesné datum známé nebylo, tak by nebylo možné určit, jaký dopad bezpečnostní incident na cenu akcií dané firmy měl. Jako ukazatel trhu byl zvolen burzovní index S&P 500 a časové okno okolo události, v níž je sledována cena akcií, bylo nastaveno v intervalu (-3;10) dní okolo data, kdy byly zveřejněny informace o incidentu. Samotná data, použitá pro analýzu, byla obstarána z několika zdrojů. Jedním z nich byl již zmiňovaný server datalossdb.org, kde byly vyhledány informace o bezpečnostních incidentech. Informace o cenách akcií zkoumaných firem byly získány prostřednictvím internetového portálu Yahoo!, konkrétně jeho služby finance.yahoo.com. Prostřednictvím služby finance.yahoo.com byla obstarána data o vývoji burzovního indexu S&P 500. 3.3 Vyhodnocení výsledků Pro vyhodnocení výsledků analýzy se testovala hypotéza říkající, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem. Tato hypotéza se testovala na analyzovaném vzorku dat pomocí t-testu na hladině pravděpodobnosti α=0,05. Pro výpočet byl použit následující vzorec: t x μ s´ √n (4) Kde x představuje aritmetický průměr hodnot CAR, μ je nulová hypotéza, s ´ je směrodatná odchylka a n představuje počet pozorování. Pro testování hypotéz byla stanovena nulová hypotéza H říkající, že bezpečnostní incidenty nemají žádný dopad na tržní hodnotu postižených firem. Jako alternativní hypotéza H byla zvolena námi testovaná hypotéza, říkající, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem. Potvrzení, či vyvrácení nulové hypotézy a následné přijetí, či nepřijetí hypotézy alternativní, se provedlo tak, že se t-hodnota porovnala s kritickou hodnotou t rozdělení pro stanovenou hladinu významnosti. Pro potvrzení alternativní hypotézy H musí být μ μ . Kritický obor je v tomto případě W t t . Hodnota t rozdělení je pro hladinu významnosti α =0,05 při 27 pozorováních rovna 1,706, což znamená, že pro přijetí alternativní hypotézy H bylo nutné, aby byla hodnota t menší než -1,706. 2 Ve vzorku jsou zastoupené následující firmy: GE Money, SAIC, JPMorgan Chase, Heartland Payment Systems, TeleTech Holdings, Bank of America, Citigroup, Sony, Hartford Life Insurance Company, Adobe Systems, Barnes & Noble, NVIDIA Corporation, Yahoo!, LinkedIn, DIRECTV, Global Payments, Coca-Cola, WellPoint, The Toronto-Dominion Bank, First Republic Bank, Intel Corporation, Wells Fargo & Company, Digital River, AT&T, AMR Corporation, Netflix, Wal-Mart Stores. Acta Informatica Pragensia 5 Na základě výsledků t-testu byla hypotéza říkající, že bezpečnostní incidenty mají na tržní hodnotu postižených firem negativní dopad, potvrzena. Na Grafu 1 je možné vidět, jaký má zveřejnění bezpečnostních incidentů dopad na tržní hodnotu postižených firem. Průměrná hodnota CAR je u analyzovaných firem jeden den po oznámení bezpečnostního incidentu -2,71362%, po dvou dnech od oznámení bezpečnostního incidentu je -4,51908% a po třech dnech je -4,00159%. Po čtyřech a více dnech již dopad bezpečnostních incidentů na tržní hodnotu postižených firem není podle t-hodnoty průkazný. Detailní výsledky analýzy jsou v Tab. 1. Na základě výsledků analýzy bylo zjištěno, že bezpečnostní incidenty mají značně negativní dopad na tržní hodnotu postižených firem a průměrný CAR je jeden den po zveřejnění incidentu -2,71362%. Na základě výsledků analýzy bylo dále zjištěno, že cena akcií společnosti začíná klesat ještě před tím, než je bezpečnostní incident oficiálně oznámen – průměrný CAR je jeden den před oznámením incidentu -1,09777%. To je možné pozorovat na Grafu 1. Tento jev může být způsoben únikem informací o incidentu před jeho oficiálním oznámením, nebo například insider tradingem, kdy držitelé akcií, kteří jsou nějak spjati s postiženou firmou, využijí toho, že mají k dispozici informace o bezpečnostním incidentu dříve, než je oficiálně oznámen a začnou prodávat své akcie. Graf 1. Výsledky analýzy CAR a AR. Zdroj: Autoři Dny -3 -2 -1 0 1 2 3 4 AR -0,66891 -0,08156 -0,34729 -0,75041 -0,86544 -1,80545 0,51748 0,39501 CAR t-hodnota (CAR) -0,66891 -1,985082246 -0,75047 -1,707312112 -1,09777 -2,788519656 -1,84818 -3,012819789 -2,71362 -3,209476252 -4,51908 -2,166951351 -4,00159 -1,998282172 -3,60658 -1,596725899 6 Klíma, Krbušek 5 0,27222 -3,33435 6 0,14443 -3,18992 7 -0,06175 -3,25167 8 0,31434 -2,93732 9 -0,61874 -3,55607 10 0,03098 -3,52509 -1,581890825 -1,647797533 -1,633667775 -1,542929864 -1,745479156 -1,790948782 Tab. 1. Výsledky analýzy. Zdroj: Autoři 3.4 Porovnání výsledků Při vyhodnocování výsledků analýzy bylo zjištěno, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem. Pokud se tento závěr porovná s výsledky předchozích studií provedených jinými autory, je patrné, že se navzájem shodují. Ačkoliv se studie shodují v tom, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem, výsledné hodnoty CAR jsou rozdílné. Příkladem může být studie (Goel, Shawky, 2009), jejímž výsledkem bylo zjištění, že průměrná hodnota CAR je jeden den od zveřejnění incidentu -1,03%. Na tomto příkladu je vidět, že se výsledná hodnota CAR neshoduje s výsledkem této analýzy, kdy hodnota CAR byla jeden den od zveřejnění incidentu -2,71362%. Dalším příkladem je studie (Cavusoglu et al., 2004), která uvádí, že firmy dva dny od oznámení bezpečnostního incidentu ztrácí v průměru 2,1% ze své tržní hodnoty. Tato hodnota opět nekoresponduje s výsledkem této analýzy, kdy hodnota CAR byla dva dny od oznámení incidentu v průmětu -4,51908%. Rozdílné hodnoty CAR této a jiných studií mohou být způsobeny odlišným obdobím, které bylo zkoumáno. Zatímco jiní autoři zkoumali období předcházející roku 2008, tato studie se zabývá obdobím mezi lety 2008 – 2012, včetně. Vzhledem k tomu, že mezi lety 2008 – 2012 probíhala světová finanční krize, která zažívala v letech 2008 a 2010 svá maxima, může být volba jiného období důvodem rozdílných hodnot CAR. Finanční krize v tomto období totiž způsobila volatilitu cen prakticky všech finančních instrumentů na trhu, což mohlo do určité míry ovlivnit reakci trhu na oznámení informací o bezpečnostním incidentu (Jo et al., 2009). Dalším možným důvodem je snížení citlivosti investorů na zprávy o datových únicích, kterých bylo v posledních letech takové množství, že je širší veřejnost, mimo ty největší případy, přestala vnímat. 4 Závěr Analýza dopadu bezpečnostních incidentů na tržní hodnotu postižených firem byla provedena na vzorku 27 firem, které zaznamenaly únik dat mezi lety 2008 – 2012. Toto období bylo vybráno záměrně, jelikož na rozdíl od předchozích let z tohoto období žádné podobné analýzy zatím neexistují. K analýze byla použita metoda CAR (cumulative abnormal return), což je stejná metoda, jakou použili autoři předchozích studií. Základem analýzy byla hypotéza říkající, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem. Tato hypotéza se testovala na analyzovaném vzorku dat pomocí t-testu na hladině pravděpodobnosti α=0,05, přičemž byla na základě jeho výsledků potvrzena. Na základě výsledků analýzy bylo zjištěno, že bezpečnostní incidenty mají značně negativní dopad na tržní hodnotu postižených firem a průměrný CAR je jeden den po zveřejnění incidentu -2,71362%. Acta Informatica Pragensia 7 Výsledky analýzy dále ukazují, že cena akcií společnosti začíná klesat ještě před tím, než je bezpečnostní incident oficiálně oznámen – průměrný CAR je jeden den před oznámením incidentu -1,09777%. Tento jev může být způsoben únikem neoficiálních informací o bezpečnostním incidentu před jeho oficiálním oznámením, nebo například insider tradingem. Při porovnání výsledků této analýzy s výsledky předchozích studií, byla nalezena shoda – závěrem všech studií bylo zjištění, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem. Přestože se závěry studií shodují, hodnoty CAR se od sebe liší. Rozdílné hodnoty CAR této a jiných studií mohou být způsobeny odlišným obdobím, které bylo zkoumáno, vzhledem k tomu, že mezi lety 2008 – 2012 probíhala světová finanční krize. Poděkování Příspěvek byl zpracován jako součást výzkumného projektu IGA, VŠE v Praze: „Inovace systému řízení digitální forenzní laboratoře“ (F4/74/2014). Seznam použitých zdrojů Campbell, K., Gordon, L.,A., Loeb, M.P., Lei, Z. (2003). The economic cost of publicly announced information security breaches: empirical evidence from the stock market. Journal of Computer Security. 11, 431-448. Cavusoglu, H., Mishra, B., Raghunathan, S. (2004). The Effect of Internet Security Breach Announcements on Market Value: Capital Market Reactions for Breached Firms and Internet Security Developers. International Journal of Electronic Commerce. 9(1) 69-104. Goel, S., Shawky, H.A. (2009). Estimating the market impact of security breach announcements on firm values. Information & Management. 46(7), 404-410. Gatzlaff, K.M., McCullough, K.A. (2010). The effect of data breaches on shareholder wealth. Risk Management and Insurance Review. 13(1), 61-83. Jo, H., Lee, C., Munguia, A., Nguyen, C. (2009). Unethical misuse of derivatives and market volatility around the global financial crisis. Journal of Academic and Business Ethics. 12, 1-11. Yayla, A.A., Hu, Q. (2011). The impact of information security events on the stock value of firms: the effect of contingency factors. Journal of Information Technology, 26(1), 60-77. Acta Informatica Pragensia 3(1), 2014, 8–22, DOI: 10.18267/j.aip.32 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers O čitelnosti příloh datových zpráv v PDF na platformě OS X On the Legibility of Data Message PDF Attachments on the OS X Platform Tomáš Zahradnický1 1 Katedra počítačových systémů, Fakulta informačních technologií, České vysoké učení technické v Praze Thákurova 9, 166 21 Praha 3 [email protected] Abstrakt: Informační systém Datových schránek je významným informačním systémem státní infrastruktury. Návrhu takové informačního systému je nutné věnovat patřičnou péči i vzhledem k tomu, že pokud by se v návrhu později objevila trhlina, mohla by mít nedozírné následky na všechny uživatele. Trhlina, o které budeme pojednávat, se týká způsobu zasílání některých datových zpráv obsahujících přílohy ve formátu PDF. Některé z těchto příloh nemusí být příjemci používajícími výchozí internetový prohlížeč Safari na operačním systému OS X schopni správně otevřít. Článek tuto situaci analyzuje a dává odpověď na otázku, kdy bude příloha ve formátu PDF otevřena správně a kdy nikoliv. Klíčová slova: Datová zpráva, datová schránka, ISDS, PDF, OS X, Safari. Abstract: The Data Message Information System is a remarkable information system of the state infrastructure. Design of an information system of such importance should be done with much care also due to fact that if a design flaw appeared later, it could have severe impacts at the users. A flaw that will be discussed in this paper applies to a data message sending process of messages containing PDF attachments. Users with the default Safari web browser on OS X do not need to be always able to open such attachments. The paper analyses the situation and gives an answer to a question when will a PDF attachment be opened correctly and when not. Keywords: Data Message, Data Mailbox, DMIS, PDF, OS X, Safari. Acta Informatica Pragensia 1 9 Úvod Informační systém (IS) Datových schránek (ISDS) byl zřízen zákonem č. 300/2008 Sb. a byl uveden do provozu dne 1. 11. 2009. Správu ISDS zajišťuje Ministerstvo vnitra České republiky (MVČR) a provoz Česká pošta, s.p. ISDS je denně využíván orgány státní správy, samosprávy i desítkami tisíc dalších subjektů. Primární funkcí systému je odesílání a příjem datových zpráv, které mohou obsahovat přílohy. Podporované přílohy datových zpráv jsou uvedeny v příloze 3. vyhlášky MVČR č. 194/2009 Sb. ve znění pozdějších úprav. Informační systém takovýchto rozměrů musí být navržen perfektně ve všech směrech, i vzhledem k tomu, že pokud by se objevila v jeho návrhu později trhlina, mohla by mít zásadní následky. Autor tohoto článku se setkal s případem, kdy ISDS v rámci datové zprávy zaslané přes tento systém nesprávně identifikoval PDF soubory obsahující žaloby, v důsledku čehož se některé soubory žaloby jevily na počítači s operačním systémem OS X, do kterého byly staženy, jako v jednom případě čitelné a ve druhém nikoliv. Analýza této skutečnosti a její příčiny jsou předmětem tohoto článku. Následující kapitola provede počáteční analýzu komponentů komunikace mezi webovým prohlížečem Safari a ISDS. Z analýzy vyplynou požadavky na návrh metod pro monitorování komunikace a operačního systému s cílem určení příčiny výše uvedeného problému. Následně budou navržené metody aplikovány, bude zachycena vzájemná komunikace serveru ISDS s webovým prohlížečem Safari a bude zjištěno, jakou roli hraje v procesu operační systém a jeho součásti. Zachycená komunikace bude vyhodnocena a bude určena příčina problému. 2 Předběžná analýza problému Autor textu má k dispozici ve své datové schránce dva rozsudky jednoho ze soudů v Praze vydaných v letech 2013 a 2014, které byly zaslány jako přílohy datových zpráv ve formátu PDF. Po přihlášení do ISDS, otevření této datové zprávy a následném stažení PDF dokumentu s rozsudkem bylo pozorováno nestandardní chování prohlížeče Safari, který je výchozím prohlížečem na platformě OS X. Aby bylo možné zjistit, proč k tomuto chování dochází, bude nutné provést analýzu komunikace mezi prohlížečem Safari a ISDS, a dále mezi Safari a částmi operačního systému, a to prostřednictvím metod reverzního inženýrství v souladu s § 66 odst. 1. písm. d) zákona č. 121/2000 Sb. ve znění pozdějších úprav. 2.1 Analýza komunikace s ISDS Uživatel komunikuje s ISDS prostřednictvím svého webového prohlížeče. Na platformě OS X je výchozím prohlížečem webový prohlížeč Safari, který je instalován spolu s operačním systémem. Vzhledem k tomu, že Safari je značně sofistikovaná aplikace, jejíž činnost je rozprostřena mezi několik vzájemně komunikujících procesů, bude nejdříve nutné identifikovat proces, který zajišťuje komunikaci prohlížeče se serverem ISDS. Tento proces bude v dalším označován jako komunikační proces (KP). Po identifikaci KP bude nutné se zaměřit na jeho komunikaci s ISDS, kterou bude nutné zachytit v čitelné podobě, a následně ji analyzovat. Nakonec bude nutné se zaměřit na roli operačního systému OS X a některých jeho komponentů, aby bylo možné potvrdit anebo vyvrátit jejich spoluúčast na problému. 2.1.1 Identifikace komunikačního procesu Komunikační proces (KP) bude možné identifikovat pomocí nástroje fs_usage představující standardní systémový nástroj příkazové řádky operačního systému OS X. Tento nástroj vypisuje až do doby jeho ukončení informace o systémových voláních prováděných ze 10 Zahradnický všech běžících procesů, která se týkají aktivit souborového systému a síťového stacku. Z výpisů tohoto nástroje bude možné určit jméno KP. 2.1.2 Monitorování komunikace mezi ISDS a KP ISDS vyžaduje použití spojení zabezpečeného na transportní vrstvě ISO/OSI síťového modelu protokolem Transport Layer Security verze 1.0 (Dierks, Allen, 1999) (TLS) anebo Secure Socket Layer verze 3.0 (Freier, Karlton, Kocher, 2011) (SSL). Pro odposlech komunikace těmito protokoly připadají v úvahu následující 2 možnosti: 1. Použít útoku typu Man-in-the-Middle (MITM) (Prowell, Kraus, Borkin, 2010), při kterém by komunikace mezi ISDS a webovým prohlížečem procházela přes prostředníka. Prostředník by musel: i) vstoupit do procesu navazování spojení mezi ISDS a KP tak, že by si s oběma komunikujícími stranami zřídil vlastní šifrovací klíče, ii) dešifrovat komunikaci přicházející z ISDS, zaznamenávat ji a následně ji šifrovat klíčem zřízeným mezi ním a KP a iii) dešifrovat komunikaci přicházející z KP, zaznamenávat ji a následně ji šifrovat klíčem zřízeným mezi ním a ISDS. Tuto metodu by bylo možné realizovat například s nástrojem Ettercap (Ornaghi et al., 2013) anebo Mitmproxy (Cortesi, Hils, 2013). 2. Využít skriptovatelnosti nástroje pro ladění aplikací LLDB (LLVM Developer Group, 2014) a v něm zajistit, aby při přijímání a odesílání dat byla tato data zapisována navíc například do konzole ladícího nástroje, anebo do externího souboru. První z uvedených možností vyžaduje provedení útoku MITM a do komunikace mezi ISDS a KP je nutné aktivně zasahovat. Aby byly vyloučeny jakékoliv možné změny dat aktivním zásahem do komunikace, bude upřednostněno získání dat bez aktivní účasti prostředníka v podobě takové, v jaké přicházejí ze serveru ISDS do KP a naopak. Proto bude rozpracována druhá z výše uvedených možností, bude navržena, implementována a aplikována metoda zachycující komunikaci mezi ISDS a KP přímo z prostředí nástroje pro ladění aplikací LLDB. 2.2 Analýza chování prohlížeče Safari ve vztahu k operačnímu systému Prohlížeč Safari využívá služeb operačního systému v podobě volání knihovních funkcí z nejrůznějších systémových frameworků. Bude tedy nutné analyzovat, jakým způsobem do procesu stahování souboru vstupuje operační systém a jeho součásti a hrají-li v tomto procesu svoji roli. Toto bude možné zjistit opět nástrojem pro ladění aplikací. 2.3 Shrnutí předběžné analýzy problému Aby bylo možné provést analýzu chybného stažení souboru z ISDS, bude nutné nejdříve určit, který proces z množiny procesů webového prohlížeče Safari na platformě OS X provádí komunikaci se serverem ISDS. Tento proces bude následně analyzován pomocí nástroje pro ladění aplikací LLDB a pomocí skriptů v LLDB bude chování KP přizpůsobeno tak, aby navíc prováděl monitorování komunikace mezi webovým prohlížečem a ISDS. Tato komunikace bude zaznamenávána a bude následně posouzena na možné příčiny chybného stažení. Nakonec bude nutné zjistit, nehraje-li v procesu stahování svoji roli také operační systém či některá jeho součást, což bude zjištěno rovněž pomocí nástroje LLDB. V následující kapitole bude proveden návrh metod vedoucích ke zjištění potřebných informací. Acta Informatica Pragensia 11 3 Návrh metod V této kapitole bude uveden návrh metod vedoucích k určení KP, jeho následnému přizpůsobení k monitorování dat, pomocí nástrojů pro ladění počítačového softwaru. Dále bude rozpracována metoda analýzy komponent operačního systému, které se mohou také podílet na zjištěné chybě. 3.1 Zjištění komunikačního procesu Činnost webového prohlížeče Safari je rozdělena mezi několik nezávislých vzájemně komunikujících procesů, a to převážně z bezpečnostních důvodů. Jednotlivé panely webových stránek v oknech prohlížeče jsou umístěny každá do svého vlastního procesu com.apple.WebKit.WebContent (WebContent). Takové rozdělení má dobré důvody, mezi něž patří i použití zásuvných modulů, jejichž pád by způsobil pád prohlížeče. Pokud dojde k pádu zásuvného modulu, dojde k pádu jediné aplikace WebContent a nedojde tak k pádu prohlížeče. Mimo procesů WebContent však existují i další procesy, které jsou v důsledku spuštění prohlížeče Safari spuštěny, a proto není na první pohled zřejmé, který proces zajišťuje vlastní komunikaci mezi prohlížečem a ISDS. Vzhledem k tomu, že pro síťovou komunikaci se musí na platformě OS X používat knihovní funkce BSD soketů a každý soket je reprezentován popisovačem souborů (angl. file descriptor), je možné pro identifikaci KP použít standardní konzolový nástroj fs_usage, který vypisuje přístup ke všem popisovačům souborů, tedy i těm, které reprezentují jednotlivé síťové sokety. Nástroj bude vhodné použít s parametry -w pro získání širokého výstupu, a dále -f network pro výpis síťově specifických informací. Spuštění proběhne z prostředí aplikace Terminal.app příkazem: sudo fs_usage -w -f network a po dobu běhu nástroje fs_usage bude z webového prohlížeče Safari navázáno připojení k webovému serveru ISDS. Nástroj fs_usage vypíše do konzole aplikace Terminal.app mj. i informaci o tom, které procesy operačního systému komunikovaly pomocí síťových soketů a mezi těmito procesy musí být i hledaný KP. 3.2 Návrh metody monitorování komunikačního procesu Po identifikaci KP bude použit nástroj pro ladění aplikací LLDB (LLVM Developer Group, 2014). Tento nástroj bude spuštěn z prostředí aplikace Terminal.app po dobu běhu KP. Po spuštění LLDB bude použit jeho příkaz attach, kterým dojde k připojení nástroje LLDB ke KP a k přerušení běhu KP. Pro komunikaci protokolem TLS se na OS X používají funkce SSLRead pro příjem dat a funkce SSLWrite pro odesílání dat. Ty provádějí šifrování a dešifrování dat, která přijímají a odesílají prostřednictvím soketových funkcí. Prototypy funkcí SSLRead a SSLWrite jsou následující (Apple, 2014a): OSStatus SSLRead ( SSLContextRef context, void *data, size_t dataLength, size_t *processed ); OSStatus SSLWrite ( SSLContextRef context, const void *data, size_t dataLength, size_t *processed ); Obě funkce vrací datový typ OSStatus, kterým informují o výsledku příjmu (SSLRead) anebo odesílání dat (SSLWrite). Parametr context označuje, o které TLS spojení jde, parametr data obsahuje u příjmu dat ukazatel na blok, do kterého se uloží přijímaná data, u odesílání dat ukazatel na blok, který se bude odesílat. Parametr dataLength určuje velikost bloku dat a parametr processed obsahuje ukazatel, do kterého funkce uloží množství zpracovaných dat. 12 Zahradnický Dokumentace (Apple, 2011) definuje, kde tyto parametry nalezneme v okamžicích vstupu a výstupu z funkcí SSLRead a SSLWrite. V 64bitové architektuře x86-64 jsou parametry při volání funkcí postupně ukládány do registrů procesoru rdi, rsi, rdx a rcx. Parametr context bude tedy umístěn v registru rdi, parametr data v registru rsi, parametr dataLength v registru rdx a parametr processed v registru rcx. Na funkce SSLRead a SSLWrite bude nutné nastavit body přerušení programu (angl. breakpoint), a to pomocí příkazů: (lldb) breakpoint set -b SSLWrite (lldb) breakpoint set -b SSLRead Nastavení bodů přerušení na tyto funkce způsobí, že dojde k přerušení běhu KP v případě, že se bude pokoušet odeslat anebo přijmout data ze šifrovaného spojení s ISDS. Pouhé přerušení je pro naše účely nedostatečné. V okamžiku přerušení funkce SSLWrite jsou odesílaná data v čitelné podobě k dispozici a ukazuje na ně registr rsi. Toto však neplatí u funkce SSLRead, u které jsou přijímaná data k dispozici až po jejím úspěšném dokončení. Nástroj LLDB je skriptovatelný a je možné ke každému bodu přerušení přiřadit skript, který se automaticky vykoná při přerušení programu. Předmětem následujících dvou sekcí bude návrh skriptů, které zřídí odposlech odesílání dat funkcí SSLWrite a přijímání funkcí SSLRead. 3.2.1 Metoda odposlechu u funkce SSLWrite Funkce SSLWrite slouží pro odesílání dat a prostřednictvím ní KP zasílá data ISDS. Data v čitelné podobě jsou v okamžiku volání funkce k dispozici a ukazuje na ně ukazatel ve druhém parametru funkce SSLWrite, který je obsažený v registru rsi. Pro naše potřeby je postačující vytisknout pouze prvních 1024 bajtů dat do konzole ladícího nástroje a nechat KP následně pokračovat bez další interakce. Požadovaného chování lze dosáhnout pomocí nastavení následujícího skriptu k bodu přerušení u funkce SSLWrite: (lldb) breakpoint command add 1 Enter your debugger command(s). > memory read -c 1024 $rsi > process continue > DONE Type 'DONE' to end. Příkaz breakpoint command add 1 přiřadí k bodu přerušení č. 1, který byl nastaven na funkci SSLWrite, skript obsahující tři příkazy: 1. memory read vypisuje prvních 1024 bajtů dat odesílaného bloku do konzole aplikace LLDB – data se vytisknou v aplikaci Terminal.app; 2. process continue instruuje nástroj LLDB k tomu, aby obnovil běh procesu KP, který po jeho provedení bude automaticky pokračovat bez další interakce; 3. DONE ukončuje zadávání skriptu. Chování KP je tímto nastavením přizpůsobeno tak, že funkce SSLWrite vypisuje díky přiřazení skriptu prvních 1024 bajtů odesílaných dat v čitelné podobě do konzole aplikace LLDB. 3.2.2 Metoda odposlechu u funkce SSLRead Funkce SSLRead slouží pro příjem dat odesílaných z ISDS směrem do KP. V době volání funkce SSLRead z KP však data nejsou ještě známa. KP předává funkci SSLRead ukazatel na Acta Informatica Pragensia 13 vyhrazené místo v paměti, do kterého má funkce uložit dešifrovaná data z TLS spojení s ISDS. Odposlech dat z funkce SSLRead je nutné rozdělit do 2 kroků, a to: i) zapamatování si ukazatele na vyhrazené místo, do kterého mají být přijmutá data uložena, který je určen argumentem data a nachází se v době přerušení programu v registru rsi a ii) tisk přijmutých dat v okamžiku opouštění funkce SSLRead. Prvním krokem je zapamatování si adresy ukazatele na místo v paměti, do kterého budou uložena přijímaná dešifrovaná data z ISDS. Toho lze dosáhnout opět použitím přiřazení skriptu k bodu přerušení č. 2: (lldb) breakpoint command add 2 Enter your debugger command(s). Type 'DONE' to end. > expression long $readaddr=$rsi > process continue > DONE Příkaz breakpoint command add 2 přiřadí k bodu přerušení č. 2, který byl nastaven na funkci SSLRead, skript obsahující tři příkazy: 1. expression long $readaddr=$rsi uloží obsah registru rsi do globální proměnné označené jako $readaddr; 2. process continue instruuje nástroj LLDB k tomu, aby obnovil běh procesu KP, který po jeho provedení bude automaticky pokračovat bez další interakce; 3. DONE ukončuje zadávání skriptu. Výše uvedený skript zajistí uložení hodnoty registru rsi v době vstupu do funkce v době, kdy registr rsi obsahuje ukazatel na datový blok, do kterého se budou přijímat dešifrovaná data z TLS spojení. Skript hodnotu registru rsi uloží do globální proměnné $readaddr. Vzhledem k tomu, že data dosud nejsou známa, bude nutné s jejich tiskem vyčkat až na okamžik dokončení funkce. Druhým krokem je tisk přijatých dat do konzole aplikace Terminal.app, který bude proveden v době, kdy jsou data již k dispozici – na poslední instrukci funkce SSLRead. Pro tyto účely bude nutné zjistit, kde funkce SSLRead končí a na poslední její instrukci nastavit třetí bod přerušení. Konec funkce SSLRead lze nalézt například pomocí příkazu: (lldb) disassemble -n SSLRead Security`SSLRead: 0x7fff8b57eab8: pushq %rbp 0x7fff8b57eab9: movq %rsp, %rbp 0x7fff8b57eabc: pushq %r15 ... 0x7fff8b57ed31: popq %r14 0x7fff8b57ed33: popq %r15 0x7fff8b57ed35: popq %rbp 0x7fff8b57ed36: ret Z výpisu vyplývá, že poslední instrukcí funkce SSLRead je instrukce ret, nacházející se na adrese 0x7fff8b57ed36. Na tuto adresu bude nutné nastavit třetí bod přerušení příkazem: (lldb) breakpoint set -a 0x7fff8b57ed36 Nyní je nutné k bodu přerušení č. 3 přiřadit poslední skript: (lldb) breakpoint command add 3 14 Zahradnický Enter your debugger command(s). > memory read -c 1024 $readaddr > process continue > DONE Type 'DONE' to end. Příkaz breakpoint command add 3 přiřadí k bodu přerušení č. 3, který byl nastaven na funkci SSLRead, skript obsahující tři příkazy: 1. memory read vypisuje prvních 1024 bajtů dat přijímaného bloku, na který ukazuje globální proměnná $readaddr, do konzole aplikace LLDB – data se vytisknou v aplikaci Terminal.app; 2. process continue instruuje nástroj LLDB k tomu, aby obnovil běh procesu KP, který, po jeho provedení, bude automaticky pokračovat bez další interakce; 3. DONE ukončuje zadávání skriptu. 3.2.3 Shrnutí k navrženým metodám Výše navržená metoda zajistí pomocí bodů přerušení programu nastavených na komunikačních funkcích SSLRead a SSLWrite automatické vykonávání skriptů provádějících monitorování TLS komunikace do konzole aplikace Terminal.app. Skripty, které byly přiřazeny k funkcím SSLRead a SSLWrite, vypisují pro jednoduchost pouze prvních 1024 bajtů z každého datového bloku zabezpečené komunikace. Navržená metoda používá globální proměnnou $readaddr, do které ukládá adresu paměťového bloku, což nemusí být vhodné u vícevláknových aplikací. Tento problém by však bylo možné snadno odstranit použitím složitějších skriptů, které by ukládaly uchovávanou hodnotu registru rsi a velikost bloku například do tabulky, do níž by se mohlo indexovat například pomocí identifikátoru vlákna. Takové řešení by bylo možné vytvořit prostřednictvím jazyka Python, který rovněž může být použit pro tvorbu skriptů v nástroji LLDB. Pro účely této analýzy však plně postačuje navržená metoda a v následující kapitole budou prezentovány pomocí ní získané výsledky. 4 Komunikace webového prohlížeče s ISDS Metoda, která byla navržena ve 3. kapitole, byla aplikována na spojení KP s ISDS a dosažené výsledky budou nyní prezentovány. Po uvedení všech nástrojů, které byly použity, budou uvedeny kroky, které byly provedeny před samotným záznamem komunikace. Poté bude následovat prezentace požadavku KP na ISDS o stažení přílohy v PDF následovaná odpovědí ISDS. Komunikace KP s ISDS bude následně vyhodnocena a bude dána odpověď na to, proč může být v jednom případě dokument zobrazen uživateli korektně a ve druhém nikoliv. 4.1 Použité nástroje Pro záznam komunikace a následné analýzy byl použit: 1. 2. 3. 4. 5. počítač MacBookPro8,2; operační systém OS X verze 10.9.2 (13C64); webový prohlížeč Safari verze 7.0.2 (9537.74.9); nástroj pro ladění aplikací LLDB verze lldb-310.2.36; nástroj pro reverzní analýzu Hex-Rays IDA Pro Advanced verze 6.5.131217 (HexRays, 2014b); 6. zásuvný modul pro nástroj Hex-Rays IDA Pro Advanced Hex-Rays Decompiler (x86) pro IDA Pro verze 1.9.0.131213 (Hex-Rays, 2014a). Acta Informatica Pragensia 15 4.2 Počáteční stav Jako výchozí stav pro monitorování komunikace byl zvolen stav těsně před započetím stahování souboru přílohy. Do tohoto stavu se uživatel dostane následováním těchto kroků: 1. provede přihlášení k ISDS na stránkách https://www.mojedatovaschranka.cz zadáním svého uživatelského jména, hesla, kontrolního kódu a následným stiskem tlačítka „Přihlásit se“; 2. stiskne potvrzující tlačítko „OK“ v následném okně informujícím ho o tom, že nemá žádné nové datové zprávy; 3. zvolí vybranou datovou zprávu. Z tohoto stavu budou prováděna další zkoumání. ISDS nabízí v případě autorem zvolené datové zprávy ke stažení přílohu 166117235_0_Korostensky2T13-13,R.PDF. V dalším budeme zkoumat, jaká komunikace probíhá mezi klientem a serverem při jejím stahování. 16 4.3 Zahradnický Žádost webového prohlížeče na stáhnutí přílohy z ISDS Komunikace začíná požadavkem webového prohlížeče na server ISDS. Tento požadavek je zachycen v níže uvedeném výpise a pochází z nástroje LLDB: 0x7ffeeac994b0: 0x7ffeeac994c0: 0x7ffeeac994d0: 0x7ffeeac994e0: 0x7ffeeac994f0: 0x7ffeeac99500: 0x7ffeeac99510: 0x7ffeeac99520: 0x7ffeeac99530: 0x7ffeeac99540: 0x7ffeeac99550: 0x7ffeeac99560: 0x7ffeeac99570: 0x7ffeeac99580: 0x7ffeeac99590: 0x7ffeeac995a0: 0x7ffeeac995b0: 0x7ffeeac995c0: 0x7ffeeac995d0: 0x7ffeeac995e0: 0x7ffeeac995f0: 0x7ffeeac99600: 0x7ffeeac99610: 0x7ffeeac99620: 0x7ffeeac99630: 0x7ffeeac99640: 0x7ffeeac99650: 0x7ffeeac99660: 0x7ffeeac99670: 0x7ffeeac99680: 0x7ffeeac99690: 0x7ffeeac996a0: 0x7ffeeac996b0: 0x7ffeeac996c0: 0x7ffeeac996d0: 0x7ffeeac996e0: 0x7ffeeac996f0: 0x7ffeeac99700: 0x7ffeeac99710: 0x7ffeeac99720: 0x7ffeeac99730: 0x7ffeeac99740: 0x7ffeeac99750: 47 64 26 32 61 31 48 77 68 74 2c 65 58 64 39 44 38 3a 63 61 6c 6e 71 74 4d 20 29 37 6c 69 2f 70 66 70 6f 6f 3f 4e 4f 34 32 32 0a 45 3f 58 61 36 31 54 77 72 2d 20 3a 2d 39 35 53 35 20 65 70 2b 2f 3d 3a 61 4d 20 2e 69 6f 35 74 72 73 76 72 65 6a 7a 62 65 32 44 54 6f 43 32 38 37 54 77 61 45 64 20 43 65 38 6c 37 6b 70 70 78 78 30 20 63 61 41 37 6b 6e 33 2d 0d 3a 61 74 76 45 45 39 66 35 4e 20 70 53 37 65 32 50 2e 6e 6e 65 5f 4f 35 38 61 37 65 74 6c 6d 6d 2e 4d 69 63 70 33 65 2f 37 4c 0a 2f 73 61 3d 78 37 39 63 66 54 2f 65 52 65 35 33 2f 6d 6b 63 66 69 4f 63 65 73 0d 65 3a 69 6c 6c 38 6f 6e 20 70 2e 20 37 2e 61 52 2f 63 6c 4c 4e 4f 63 32 39 3a 70 72 46 66 66 35 31 6f 61 6f 6c 66 4b 32 36 74 0a 70 20 63 2c 3b 0d 7a 74 4f 6c 31 47 2e 37 6e 65 77 68 2f 47 7a 7a 38 38 61 20 6f 3d 3d 61 33 26 2e 6a 2e 64 61 3d 49 62 63 3d 43 2d 74 61 61 71 0a 69 6f 53 65 31 65 30 33 67 66 77 72 49 31 49 73 38 62 39 31 72 45 38 65 26 65 31 65 63 69 74 30 45 64 36 31 6f 61 65 74 70 3d 55 6c 73 20 57 20 63 2e 2e 75 65 77 61 53 6b 7a 37 37 32 35 0d 74 6e 61 32 64 6e 0d 64 7a 6e 65 36 3d 34 30 33 6e 6c 78 69 70 30 73 6c 68 58 65 28 6b 31 31 61 72 2e 6e 44 64 4e 4d 26 63 37 0a 61 63 39 64 6d 63 0a 61 0d 67 0d 3b 30 33 38 39 6e 69 74 6f 6c 2e 65 61 3b 20 62 4b 6f 20 31 67 65 6d 6b 53 43 54 41 58 62 62 0d 6c 6c 37 36 49 4e 48 74 0a 3a 0a 20 33 30 37 32 65 76 2f 6e 69 39 72 2f 20 31 4b 48 29 53 0d 65 72 6f 61 2f 77 73 25 43 36 35 0a 2f 6f 66 65 64 75 6f 6f 41 20 43 49 2d 36 38 32 63 65 68 2f 63 2c 2d 35 49 30 69 54 20 61 0a 3a 3a 6a 2e 69 73 77 33 53 37 62 00 44 73 33 37 3d 6d 73 76 63 67 6f 50 30 38 3b 30 74 0d 74 78 61 2a 41 2e 6e 5f 74 4d 56 66 41 20 20 65 63 6e 4f 4c 44 52 32 33 00 53 75 39 39 31 3d 74 61 63 7a 6f 43 35 33 20 39 69 0a 6d 68 74 2f 67 30 74 39 2f 4c 65 61 63 66 68 64 7a 64 7a 44 25 46 30 35 00 2f 72 30 38 36 30 3a 73 65 69 6b 5a 61 32 49 35 6f 41 6c 74 69 2a 65 20 65 5f 35 2c 72 72 63 72 74 61 2f 65 45 73 33 3d 32 39 00 64 65 30 37 36 20 20 63 70 70 69 2d 61 64 53 33 6e 63 2c 6d 6f 3b 6e 28 6c 31 33 20 73 69 65 2d 74 74 70 78 32 77 44 63 30 0d 00 GET /portal/DS/d d?oper=Enclosure &XCSRF=8a97f3900 2a27efae2d6e7987 a68e5f3&dmId=166 117235&encNum=0 HTTP/1.1..Host: www.mojedatovasc hranka.cz..Accep t-Encoding: gzip , deflate..Cooki e: _if=06; IPCZX-COOKIE=03-05aa d9e5c2bd4306832d 9588e6c60878; IS DSlast=139220953 8577..Connection : keep-alive..Ac cept: text/html, application/xhtm l+xml,applicatio n/xml;q=0.9,*/*; q=0.8..User-Agen t: Mozilla/5.0 ( Macintosh; Intel Mac OS X 10_9_1 ) AppleWebKit/53 7.73.11 (KHTML, like Gecko) Vers ion/7.0.1 Safari /537.73.11..Acce pt-Language: frfr..Referer: htt ps://www.mojedat ovaschranka.cz/p ortal/ISDS/index ?ev=LG1kdCwsOzE2 NjExNzIzNTswLDsw OzE7Ozs7MA%3D%3D 4b99c887&XCSRF=c 2efc28b2cb672020 225f9a957b5b359. .DNT: 1......... Výpis 1. Žádost KP na ISDS na stažení souboru 166117235_0_Korostensky2T13-13,R.PDF. 4.4 Odpověď serveru ISDS na žádost o stažení PDF souboru s přílohou Na požadavek KP uvedený v sekci 4.3 odpovídá ISDS následovně: 0x7ffeea2afc00: 0x7ffeea2afc10: 0x7ffeea2afc20: 0x7ffeea2afc30: 0x7ffeea2afc40: 0x7ffeea2afc50: 0x7ffeea2afc60: 0x7ffeea2afc70: 0x7ffeea2afc80: 0x7ffeea2afc90: 0x7ffeea2afca0: 0x7ffeea2afcb0: 0x7ffeea2afcc0: 0x7ffeea2afcd0: 0x7ffeea2afce0: 48 0a 65 20 44 64 30 0d 69 74 31 6e 46 6c 72 54 44 62 47 53 3a 31 0a 74 3b 31 73 22 3a 61 54 61 20 4d 0d 20 34 43 69 20 37 6b 0d 20 6e 50 74 32 54 0a 57 20 6f 6f 66 32 79 0a 6e 73 2f 65 30 0d 4c 65 31 6e 6e 69 33 32 43 6f 66 31 3a 31 0a 61 64 33 74 3a 6c 35 54 61 2d 6f 2e 20 34 53 73 2c 3a 65 20 65 5f 31 63 73 72 31 57 20 65 74 20 35 6e 61 6e 30 33 68 74 6d 20 65 31 72 2d 31 32 74 74 61 5f 2d 65 6f 2c 32 64 32 76 4d 32 3a 2d 74 6d 4b 31 2d 72 70 30 2c 3a 65 6f 20 33 44 61 65 6f 33 43 65 72 30 20 35 72 64 46 32 69 63 3d 72 2c 6f 2c 69 20 31 32 3a 69 65 20 73 68 22 6f 52 6e 6e 76 4f 32 3a 20 66 62 47 70 6d 31 73 2e 74 6f 61 4b 20 33 49 69 20 4d 6f 65 36 74 50 72 2d 74 0d 46 32 53 65 32 54 73 6e 36 65 44 6f 74 65 HTTP/1.1 200 OK. .Date: Wed, 12 F eb 2014 12:52:32 GMT..Server: IS DS..Last-Modifie d: Wed, 12 Feb 2 014 13:52:32 GMT ..Content-Dispos ition: attachmen t; filename="166 117235_0_Koroste nsky2T13-13,R.PD F"..Cache-Contro l: no-store,no-t ransform,private Acta Informatica Pragensia 17 0x7ffeea2afcf0: 0x7ffeea2afd00: 0x7ffeea2afd10: 0x7ffeea2afd20: 0x7ffeea2afd30: 0x7ffeea2afd40: 0x7ffeea2afd50: 0x7ffeea2afd60: 0x7ffeea2afd70: 2c 72 76 61 6f 54 67 65 6c 6d 65 65 78 6e 72 3a 6e 61 61 73 3a 3d 3a 61 20 74 69 78 3a 20 35 20 6e 63 2d 6e 2d 20 74 31 4b 73 68 54 0d 61 30 69 32 65 66 75 79 0a 67 0d 6d 0d 65 65 6e 70 0d 65 0a 65 0a 70 72 6b 65 0a 3d 4b 6f 43 2d 2d 65 3a 00 30 65 75 6f 41 45 64 20 00 0d 65 74 6e 6c 6e 0d 74 00 0a 70 3d 6e 69 63 0a 65 00 45 2d 34 65 76 6f 43 78 00 78 41 2c 63 65 64 6f 74 00 70 6c 20 74 0d 69 6e 2f 00 69 69 6d 69 0a 6e 74 70 00 ,max-age=0..Expi res: 0..Keep-Ali ve: timeout=4, m ax=512..Connecti on: Keep-Alive.. Transfer-Encodin g: chunked..Cont ent-Type: text/p lain............ Výpis 2. Odpověď serveru ISDS na požadavek KP. Součástí odpovědi jsou hlavička s výchozím jménem souboru (Content-Disposition) s hodnotou attachment; filename="166117235_0_Korostensky2T1313,R.PDF" a hlavička obsahující chybný MIME typ dokumentu (Content-Type) s hodnotou text/plain. 4.5 Vyhodnocení komunikace V sekci 4.3 byl uveden výpis žádosti webového prohlížeče Safari odeslaný z KP serveru ISDS. Tento požadavek je standardní kromě požadavku na jazyk, kterým je francouzština, která je aktuálně nastaveným jazykem operačního systému počítače, na kterém pracuje autor článku. V sekci 4.4 byla uvedena odpověď serveru na žádost KP. Nyní bude odpověď serveru ISDS blíže analyzována, nejdříve hlavičky Content-Disposition a Content-Type, pak bude následovat diskuze o zjištěné chybě. 4.5.1 Hlavičky komunikace Hlavička Content-Disposition, která je definována ve standardu RFC 6266 (Reschke, 2011), má v zaznamenané odpovědi hodnotu: attachment; filename="166117235_0_Korostensky-2T13-13,R.PDF". Hodnota má dvě části: Část prvá – attachment – říká webovému prohlížeči, že by měl vyzvat uživatele k uložení souboru, zatímco část druhá – dispoziční parametr filename – poskytuje informaci o doporučeném jménu souboru. V zaznamenaném případě se soubor má jmenovat 166117235_0_Korostensky-2T1313,R.PDF. Hlavička Content-Type, která je definována ve standardu RFC 2045 (Freed, Borenstein, 1996a), obsahuje tzv. typ internetového média (dříve MIME typ) s informací o tom, jak by měl prohlížeč interpretovat následující data, případně doplněný o informaci o kódování formou nepovinného parametru charset. Hlavička obsahuje hodnotu text/plain, a nepovinný parametr není uveden. Prohlížeč by tedy měl data chápat jako prostý text s tím, že kódování textu není uvedeno. Dokument RFC 2046 (Freed, Borenstein, 1996b) uvádí, že pokud parametr charset chybí, měla by být implikována znaková sada US-ASCII. Tuto implikaci nahrazuje dokument RFC 2616 (Fielding et al., 1999) na kódovou sadu ISO-8859-1 a zároveň uvádí, že některý počítačový software se v případě chybějícího parametru charset chová tak, že se pokouší kódování určit sám z obsahu dat. Pravidla pro uvádění parametru charset jsou dále změněna dokumentem RFC 6557 (Melnikov, Reschke, 2012), který rozlišuje dva případy: i) pokud lze vyčíst informaci o kódování dokumentu z obsahu dokumentu, pak by hodnota charset neměla být uvedena vůbec, aby nezpůsobila případnou nejednoznačnost při určení kódování a ii) mít explicitně uveden parametr charset tak, že výchozí hodnota již není zapotřebí. 4.5.2 Chyba při přenosu souboru Typ internetového média (MIME typ), který byl ISDS odeslán a poskytnut KP, byl text/plain bez dalšího určení kódování souboru. Stažený soubor by měl být prohlížečem interpretován jako soubor s prostým textem. Vzhledem k tomu, že soubory PDF obecně 18 Zahradnický nejsou textovými soubory, jde o špatnou identifikaci typu souboru. Soubory typu PDF mají svůj vlastní MIME typ, který je definován v RFC 3778 (Taft et al., 2004), a to application/pdf. Alternativně by bylo možné použít obecnější typ application/octetstream. Žádný z těchto dvou typů internetového média však serverem nebyl poskytnut a namísto něj byl ISDS odeslán typ text/plain. V důsledku toho došlo ke spuštění potenciálně nebezpečného (Barua, Shahriar, Zulker, 2011) procesu detekce typu internetového média (Microsoft Corp.; Hemsley, Barth, Hickson, 2010; Zalewski, 2012) s tím, že pokud se detekce nezdaří, MIME typ se nastaví záchranným mechanismem na obecný MIME typ reprezentující binární data application/octet-stream. Tímto záchranným mechanismem prohlížeč soubor ponechá „jak je“ a k jeho otevření následně použije mechanismy operačního systému – identifikace aplikace k otevření souboru obvykle podle jeho přípony, pokud nějakou má. Stahovaný soubor, pro nějž je hlavička odpovědi ISDS uvedena ve Výpise 2, byl i přes špatný MIME typ otevřen v aplikaci pro prohlížení PDF souborů. Autor má k dispozici záznam komunikace, který není díky vázání mlčenlivostí oprávněn publikovat, ve kterém se za jméno souboru v prohlížeči doplnila automaticky přípona .txt a soubor PDF tak skončil s dvojí příponou .pdf.txt. Operační systém se rozhodl podle poslední přípony, která byla .txt, čímž došlo k otevření souboru ve výchozí aplikaci pro zpracování textu, kterou je na OS X aplikace TextEdit.app, a soubor se uživateli jevil jako nečitelný. Aby bylo možné blíže analyzovat, proč se jeden PDF soubor otevřel správně a druhý nikoliv, je nutné prozkoumat metodu detekce typu MIME, kterou prohlížeč (anebo operační systém) provádí a která vuústila jednou otevřením souboru v aplikaci pro prohlížení PDF souborů a podruhé v aplikaci TextEdit.app, ve které byl uživateli nečitelný. 4.5.3 Analýza detekce typu MIME Nyní bude analyzován prohlížeč Safari a proces stahování souboru. Safari je postaven na frameworku WebKit2.framework (Apple, 2014b), který je vyvíjen pod licencí s otevřeným zdrojovým kódem. Studiem zdrojových kódů frameworku bylo zjištěno, že ke stahování souboru se využívají služby operačního systému, obsažené v systémovém frameworku CFNetwork.framework (Apple, 2012). Zdrojový kód aktuální verze frameworku CFNetwork.framework není k dispozici, a proto byly použity nástroje Hex-Rays IDA Pro Advanced (Hex-Rays, 2014b), zásuvný modul Hex-Rays Decompiler (x86) (Hex-Rays, 2014a) v kombinaci s nástrojem LLDB pro porozumění chování frameworku a prohlížeče při stahování souboru. Tato činnost byla provedena podle § 66 odst. 1 písm. d) zákona č. 121/2000 Sb. ve znění pozdějších úprav. Bylo zjištěno, že nad prvním datovým blokem stahovaného souboru přílohy je volána metoda frameworku CFNetwork.framework s názvem: CFNetwork`URL-ConnectionClient::sniffAndSendDidReceiveResponse. Tato metoda má 1 vstupní argument, kterým je pole, obsahující datový typ s prvním datovým blokem stahovaného souboru. Metoda zjišťuje, jsou-li data kódována v některém z kódování jako například Apple MacBinary (Olson et al., 1987), BinHex (Faltstrom, Crocker, Fair, 1994) a další, a dále obsahuje volání metody CFNetwork`URLResponse::guessMIMETypeCurrent, která z obsahu prvního bloku přenášeného souboru určuje MIME typ souboru. Funkce CFNetwork`URLResponse::guessMIMETypeCurrent volá nad tímto blokem dat interní funkci CFNetwork`isAllText, která hraje klíčovou v určení MIME typu, proto bude podrobně popsána. Následující pseudokód v programovacím jazyce C byl pořízen nástrojem Hex-Rays IDA Pro Advanced a zásuvným modulem Hex-Rays Decompiler (x86): Acta Informatica Pragensia 19 unsigned char __fastcall CFNetwork`isAllText(const __CFData *cfDataRef) { const __CFData *cfDataRef_1; // Kopie ukazatele na datový blok CFIndex delka_dat_v_bloku; // Množství dostupných dat v bloku CFIndex zkoumana_delka; // Množství znaků, které budeme zkoumat char* ukazatel_na_aktualni_znak; // Ukazatel na aktuální znak bloku char* ukazatel_na_posledni_znak; // Ukazatel na poslední znak bloku char znak; // Aktuální znak z bloku unsigned char vysledek; // Výsledek funkce: 0=netextový, 1=text cfDataRef_1 = cfDataRef; // Zkopíruj ukazatel na vstupní blok dat if ( cfDataRef ) // Je blok dat platný? Pokud ne, skonči s výsledkem 1 { // Zjisti délku datového bloku delka_dat_v_bloku = CFDataGetLength(cfDataRef); // Nastav zkoumanou délku na 512 znaků zkoumana_delka = 512; // Máme k dispozici méně než 513 znaků? if ( delka_dat_v_bloku < 513 ) zkoumana_delka = delka_dat_v_bloku; // Ano, zkoumejme jen tolik, co máme // Máme alespoň 1 znak ke zkoumání? if ( zkoumana_delka > 0 ) { // Zjisti ukazatel na první znak v bloku ukazatel_na_aktualni_znak = CFDataGetBytePtr(cfDataRef_1); // Zjisti, kde je konec zkoumaného bloku ukazatel_na_posledni_znak = zkoumana_delka + ukazatel_na_aktualni_znak - 1; // Dokud jsme v bloku, vezmi znak po znaku a zkoumej jejich hodnotu while ( ukazatel_na_aktualni_znak <= ukazatel_na_posledni_znak ) { // Načti aktuální znak z bloku znak = *ukazatel_na_aktualni_znak; // Nastav hodnotu výsledku na 0 vysledek = 0; // Zjisti, je-li znak v definovaných mezích if ( znak >= 9 && znak != 11 && znak >= 27 ) { // Přejdi na následující znak v bloku ++ ukazatel_na_aktualni_znak; // Pokud je hodnota znaku > 31, pokračuj na následující znak if ( znak > 31 ) continue; // Znak byl <= 31, prohlaš blok za netextový skočením s výsledkem 0. } return vysledek; } } } // Prohlaš blok za textový skočením s výsledkem 1. return 1; } Výpis 3. Pseudokód funkce CFNetwork`isAllText, která je součástí systémového frameworku CFNetwork.framework. Tato funkce prozkoumá prvních maximálně 512 bajtů textu na to, neobsahuje-li znaky s hexadecimálními kódy 00-08, 0B, 0E-1A a 1C-1F (Hemsley, Barth, Hickson, 2010). Pokud ani jeden z těchto znaků zkoumaný blok dat neobsahuje, funkce indikuje, že soubor je čistě textový vrácením hodnoty logické 1, v opačném případě funkce končí s hodnotou logické 0 indikujíc netextový obsah. V případě souboru 166117235_0_Korostensky2T13-13,R.PDF funkce CFNetwork`isAllText vrátí hodnotu 0, což znamená, že prvních 512 bajtů souboru nelze považovat za textový soubor. Funkce CFNetwork`URLResponse::guessMIMETypeCurrent se následně pokusí ještě 20 Zahradnický o několik dalších pokusů o identifikaci a nakonec popsaným záchranným mechanismem nastaví detekovaný MIME typ na application/octet-stream. Na tuto změnu MIME typu reaguje prohlížeč tak, že ponechá jméno souboru na jménu doporučeném hlavičkou ContentDisposition. Soubor je uložen na disk s doporučeným jménem a při poklepání na něj dojde k otevření prohlížeče PDF souborů. V případě druhého PDF souboru, který autor má k dispozici, ale díky vázání mlčenlivostí ho nemůže publikovat, funkce CFNetwork`isAllText vrátí hodnotu 1, což znamená, že prvních 512 bajtů PDF souboru lze považovat za čitelný text a následně je MIME typ ponechán na hodnotě text/plain, je přidána přípona .txt a soubor je uložen na disk se jménem obsahujícím doporučené jméno souboru a přidanou příponou .txt. Soubor nakonec má dvě přípony .pdf.txt a při poklepání na něj dojde díky poslední příponě .txt k otevření aplikace pro úpravu textu TextEdit.app a soubor je jeví uživateli jako nečitelný. 4.5.4 Shrnutí komunikace webového prohlížeče s ISDS Díky špatnému MIME typu získanému z ISDS došlo ke spuštění detekce MIME typu operačním systémem v jeho frameworku CFNetwork.framework. Detekční algoritmus, který byl v konečném důsledku použit (uvedený ve Výpise 3), ve funkci CFNetwork`isAllText zkoumal maximálně prvních 512 bajtů souboru. Pokud žádný z těchto bajtů neobsahoval některý z nepovolených znaků (00-08, 0B, 0E-1A a 1C-1F hexadecimálně (Hemsley, Barth, Hickson, 2010)), byl MIME typ nastaven na text/plain, soubor byl prohlášen za textový a byla mu doplněna přípona .txt navíc ke jménu doporučeném HTTP hlavičkou ContentDisposition. Operační systém pro otevření tohoto souboru použil výchozí aplikaci pro zpracování textu TextEdit.app, která zobrazila soubor jako nečitelný. V dokumentovaném případě byl ISDS rovněž ohlášen KP MIME typ souboru text/plain a rovněž došlo k detekci MIME typu souboru. V tomto případě však PDF soubor obsahoval komprimovaná data a v prvních 512 znacích se objevily znaky, které funkce CFNetwork`isAllText vyhodnotila jako nepřípustné pro text, vrátila hodnotu 0, detekce selhala a MIME typ byl nastaven záchranným mechanismem na application/octet-stream. V důsledku toho operační systém ponechal jméno souboru takové, jaké bylo doporučeno hlavičkou Content-Disposition a soubor byl korektně otevřen v aplikaci pro prohlížení PDF. Oba popsané případy mají společný jmenovatel, kterým je špatný MIME typ přijmutý z ISDS. MIME typ text/plain je nevhodný pro soubory PDF a v obou uvedených případech způsobil nejednoznačnost v identifikaci MIME typu přijímaného PDF souboru. Operační systém v obou případech spustil vlastní detekci MIME typu, jejíž výsledek byl závislý na obsahu prvních 512 bajtů PDF souboru. Bylo-li prvních 512 bajtů PDF souboru reprezentovatelných jako text, byla souboru přidána automaticky přípona .txt a pro uživatele se dále jevil jako nečitelný. V opačném případě detekce textu selhala, byl použit záchranný MIME typ application/octet-stream, soubor byl ponechán s doporučeným jménem a k jeho otevření byla použita výchozí aplikace pro prohlížení PDF souborů. 5 Závěr Článek pojednával o dvou různých případech stahování přílohy datové zprávy ve formátu PDF z Informačního systému Datových schránek (ISDS) prohlížečem Safari na operačním systému OS X. V jednom případě došlo k otevření přílohy v nesprávné aplikaci a jevila se tak pro uživatele nečitelná, protože byla ke jménu souboru přidána dodatečná přípona .txt, ve druhém případě byl soubor korektně stažen a zobrazen. Příčina přidání přípony .txt byla analyzována, nejdříve formou počáteční analýzy, která provedla identifikaci komponent, které Acta Informatica Pragensia 21 se na komunikaci webový prohlížeč – ISDS podílely. Následně byla navržena metoda záznamu komunikace mezi komunikačním procesem (KP) webového prohlížeče a ISDS, která byla aplikována. Ze záznamu komunikace mezi ISDS a KP vyplynulo, že z ISDS do KP přicházela špatná identifikace souboru v podobě typu internetového média (typu MIME) v hlavičce Content-Type, která měla hodnotu text/plain, namísto očekávaného typu PDF souborů, který je application/pdf. Dále bylo zjištěno, že v důsledku špatného MIME typu a chybějícího parametru charset u tohoto typu došlo k nejednoznačnosti u MIME typu a došlo ke spuštění detekce MIME typu frameworkem operačního systému CFNetwork.framework. Tento framework se pokoušel určit, šlo-li skutečně o textový soubor a použil k tomu funkci CFNetwork`isAllText, která zkoumala maximálně prvních 512 bajtů souboru. Pokud byly tyto bajty reprezentovatelné jako text, detekovaný MIME typ byl nastaven na text/plain, k souboru byla přidána přípona .txt a soubor byl otevřen v aplikaci pro úpravu textů TextEdit.app, která soubor zobrazila jako uživateli nečitelný. Pokud detekce textu prováděná funkcí CFNetwork`isAllText skončila neúspěchem, tj. byl v prvních 512 bajtech PDF souboru objeven netextový znak, byl detekovaný MIME typ nastaven záchranným mechanismem na typ application/octet-stream, soubor byl ponechán se jménem doporučeným hlavičkou Content-Disposition a k jeho otevření se použilo standardních mechanismů operačního systému, které ho korektně otevřely v prohlížeči PDF souborů. Žádný počítačový program by neměl „věřit“ vstupním datům, dokud se jejich důkladným prověřením „nepřesvědčil“ o jejich nezávadnosti a platnosti. Ostatní vstupní data by měl prohlásit za neplatná a odmítnout je, viz standardy tvorby bezpečného kódu (Howard, LeBlanc, 2003) a (Seacord, 2013). Skutečnost, že ISDS odeslal KP špatný MIME typ pro PDF soubor poukazuje na fakt, že sám umožnil, aby do něj byla vložena datová zpráva se špatným MIME typem. ISDS tedy důvěřuje některému z vkládajících, že jím uváděné MIME typy příloh jsou správné. Tímto vkládajícím byl například nejméně jeden ze soudů v Praze a nejméně v jednom soudním sporu toto chování způsobilo nežádoucí právní důsledky – průtah a škody. Poděkování Zde, na tomto místě, bych chtěl vyjádřit svůj dík soudnímu znalci ing. Viktoru Kotrubenkovi, za jeho cenné připomínky k obsahu tohoto článku. Seznam použitých zdrojů Apple, Inc. (2012). CFNetwork Programming Guide. Retrieved from https://developer.apple.com/library/mac/documentation/Networking/Conceptual/CFNetwork/CFNetwork.pdf. Apple, Inc. (2011). OS X ABI Function Call Guide. Retrieved from https://developer.apple.com/library/mac/documentation/DeveloperTools/Conceptual/LowLevelABI/Mac_OS_X_ABI_F unction_Calls.pdf. Apple, Inc. (2014a). Secure Transport Reference. Retrieved from https://developer.apple.com/library/mac/documentation/Security/Reference/secureTransportRef/secureTransportRef.pdf. Apple, Inc. (2014b). The WebKit Open Source Project. Retrieved from http://www.webkit.org. Barua, A., Shahriar, H., & Zulker, M. (2011). Server Side Detection of Content Sniffing Attacks. In 22nd International Symposium on Software Reliability Engineering (pp. 20-29). IEEE. Cortesi, A., & Hils, M. (2013). Mitmproxy: A man-in-the-middle proxy. Retrieved from http://mitmproxy.org/. Dierks, T., & Allen, C. (1999). The TLS Protocol Version 1.0. Retrieved from http://tools.ietf.org/html/rfc2246. 22 Zahradnický Faltstrom, P., Crocker, D., & Fair, E. (1994). MIME Content Type for BinHex Encoded Files. Retrieved from https://tools.ietf.org/html/rfc1741. Fielding, R., Gettys, J., Mogul, J., Frystyk, H., Masinter, L., Leach, P. (1999). Hypertext Transfer Protocol -HTTP/1.1. Retrieved from https://tools.ietf.org/html/rfc2616. Freed, N., & Borenstein, N. (1996a). Multipurpose Internet Mail Extensions (MIME) Part One: Format of Internet Message Bodies. Retrieved from https://tools.ietf.org/html/rfc2045. Freed, N., & Borenstein, N. (1996b). RFC 2046 - Multipurpose Internet Mail Extensions (MIME) Part Two: Media Types. Retrieved from https://tools.ietf.org/html/rfc2046. Freier, A., Karlton, P., & Kocher, P. (2011). The Secure Sockets Layer (SSL) Protocol Version 3.0. Retrieved from http://tools.ietf.org/html/rfc6101. Hemsley, G. P., Barth, A., & Hickson, I. (2010). MIME Sniffing Standard, Living Standard. Retrieved from http://mimesniff.spec.whatwg.org. Hex-Rays S.A. (2014a). Hex-Rays Decompiler: rays.com/products/decompiler/index.shtml. Overview. Retrieved from https://www.hex- Hex-Rays S.A. (2014b). The Interactive Disassembler. Retrieved from https://www.hex-rays.com/index.shtml. Howard, M., & LeBlanc, D. (2003). Writing Secure Code. Redmond, WA, USA: Microsoft Press. LLVM Developer Group. (2014). The LLDB Debugger. Retrieved from http://lldb.llvm.org/index.html. Melnikov, A., & Reschke, J. (2012). Update to MIME regarding „charset“ Parameter Handling in Textual Media Types. Retrieved from https://tools.ietf.org/html/rfc6657. Microsoft Corp. (nedatováno). MIME Type Detection in Windows Internet Explorer. Retrieved from http://msdn.microsoft.com/en-us/library/ms775147.aspx. Olson, P., Loeb, L., Shapiro/Maug, N., Hagerman, M., Pester, M., & Bond, W. (1987). The MacBinary II Standard. Retrieved from http://files.stairways.com/other/macbinaryii-standard-info.txt. Ornaghi, A., Valleri, M., Escobar, E., & Milam, E. (2013). A comprehensive suite for man in the middle attacks. Retrieved from http://ettercap.github.io/ettercap/index.html. Prowell, S., Kraus, R., & Borkin, M. (2010). Seven Deadliest Network Attacks. Burlington, MA, USA: Syngress. Reschke, J. (2011). Use of the Content-Disposition Header Field in the Hypertext Transfer Protocol (HTTP). Retrieved from https://tools.ietf.org/html/rfc6266. Seacord, R. C. (2013). Secure Coding in C and C++. USA: Addison-Wesley Professional. Taft, E., Pravetz, J., Zilles, S., & Masinter, L. (2004). The application/pdf Media Type. Retrieved from https://tools.ietf.org/html/rfc3778. Zalewski, M. (2012). The Tangled Web. San Francisco, CA, USA: No Starch Press. Acta Informatica Pragensia 3(1), 2014, 23–32, DOI: 10.18267/j.aip.33 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers The Third World War? In The Cyberspace. Cyber Warfare in the Middle East. Martina Knopová1, Eva Knopová1 1 Institute of Information Studies and Librarianship, Faculty of Arts, Charles University in Prague U Kříže 8, 158 00 Praha 5, Czech Republic [email protected] Abstract: This article aims to provide a brief and comprehensive introduction to the issue of cyber warfare and to display the recent development in this area. Geographically, it focuses on the Middle East region, since the vast majority of the most important recent cyber attacks appeared just in there or were connected to it. The first part of the article tries to define the key notion of cyber warfare, compares it to the standard warfare and presents different types of cyber weapons that are known today. The second part points out examples of the most striking recent cyber attacks and uses them as evidences to demonstrate today's importance and dissemination of cyber warfare. Finally, the article sums up pros and cons of the cyber weapons and, in view of these, predicts a significant increase in their use in any future war conflicts. Keywords: Cyber Warfare, Cyber Security, Middle East, Malware, Stuxnet, Flame, Duqu. 24 M. Knopová, E. Knopová "I don't know what kind of weapons will be used in the third world war, assuming there will be a third world war. But I can tell you what the fourth world war will be fought with -- stone clubs." Albert Einstein 1 Introduction "The United States is fighting a cyber-war today, and we are losing," Schneier (2010) proclaimed a former director of National Security Agency (NSA) Mike McConnell in 2010. As a reaction, some American newspapers (Schneier, 2010) have published articles arguing that the threat of a cyber-war is just a hype. However, after a sequence of cyber events of last years, nobody can doubt that the world has entered a new phase of warfare. Actually, one of the first cyber attacks that was confirmed not to be lead by lonely hackers but on a state level in a large scale was recognised in April 2007 when Russia attacked web pages of Estonian official institutions. Since then, every now and then daily newspapers inform about some new more or less important cyber attacks. For instance, in 2007 China, where blocking of certain websites is a daily routine, three main search engines (Biggs, 2007) were completely blocked in July 2009. Shortly after that incident, websites of official SouthKorean and American institutions, banks and media were hit in three waves by a massive DDoS attack. In 2010, first malware aiming at nuclear facilities, Stuxnet, was recognized in Iran and since then, several of its successors have been noticed in the Middle East. More recently, the frequency and gravity of attacks has been significantly rising. In August 2012, Saudi Arabia national oil company suffered a targeted cyber-attack on their facilities. In October 2012, websites of six US banks including the major ones like JP Morgan and Bank of America underwent a large-scale DDoS attack. (Engleman, 2012) In January 2013, malicious software from a USB flash drive put a US power plant out of order for three weeks. (Fingle, 2013) Finally, at the beginning of February 2013, just several days before President Obama warned against the US enemies that are trying to "sabotage our power grid, our financial institutions, and our air traffic control systems" (The New York Times, 2013) over thirty Western journalists including those from leading US newspapers like The New York Times or The Wall Street Journal have suffered a cyber-espionage according to them from China, (Muskal, 2013) which Chinese officials denied. Today, almost four years after Mike McConnell's proclamation, a threat of a cyber-war does not seem as such hype anymore. Therefore, if there is another worldwide conflict in the era of the current Western civilization, it will be argued that a great part of such conflict will take place in cyberspace and will be lead by cyber weapons. Firstly, there will be presented a new type of weapons used in a state-level armed conflict, i.e. cyber weapons. Then, first evidences of such a hypothesis, the members of Stuxnet malware Acta Informatica Pragensia 25 family that have been recognised and already used for a cyber-attack on a national level will be presented. Finally, the perspective role and effectiveness of using different types of cyber weapons and their known representatives against today's threats will be discussed. Concerning literature review and research methods, the article is of introductory character and as such aspires mostly to present the issue of cyber warfare and to underline its importance today. Therefore, the research methodology is rather descriptive in its first part and argumentative in its second part first in order to introduce the issue, and then to provide evidences for proclaimed thesis, which is a strikingly uprising relevance of cyber warfare. Regarding the high, up-to-date nature of the topic, the chosen literature is constituted mostly by electronic articles retrieved from highly reputed e-databases or by various reports published by recognised computer experts. However, some cornerstone books of cyber warfare theories were used, too. 2 2.1 Notion of Cyber War and Its Particularities Definition of Cyber Warfare Now, at the very beginning of this article, key terms need to be specified, since their initial meaning used in the past does not have to correspond to its use today or in the future. First, even though cyberspace has been recognised by U.S. Deputy Secretary of Defence as a new domain of warfare, (Lynn, 2010, pp 97-108) a clear definition of cyber warfare is still missing. Nonetheless, Richard A. Clarke, a former "counter-terrorist tsar" and an expert on a cyber-security, provided a commonly accepted description of a "cyberwarfare": "actions by a nation-state to penetrate another nation's computers or networks for the purposes of causing damage or disruption." (Clarke, 2010, p. 292) Although it has been argued that a notion of cyber warfare does not have too much in common with a real war, (Schneier, 2010) one must bear in mind that the term of cyber war still fits into Carl von Clausewitz' definition of war: "War is thus an act of force to compel our enemy to do our will." (Clausewitz et al., 1984) Therefore, there is no doubt that a cyberspace is not an equal warfare space to the air, land, sea and space where a real war can be lead. Nevertheless, the war strategy used in the cyberspace is incomparable to regular strategies used in a physical conflict, since cyber attacks do not have to be obvious right away and even if they are, their authors can be only hardly identifiable. Therefore, it will be really difficult if not impossible to agree upon rules of a war in a cyberspace, much less upon its regulatory compliance unlike most countries have agreed on rules of jus in bello. Consequently, the cyber warfare, missing any legal framework, will follow completely different patterns than the typical patterns of a regular armed conflict. 2.2 Categorization of Cyber Weapons Likewise, cyber weapons are considerably distinct from the weapons used in other warfare spaces. Actually, cyber attacks can be divided into two categories – syntactic attacks that act 26 M. Knopová, E. Knopová directly, in other words malicious software, and semantic attacks that aim to modify data (for example on official websites) so that they are wrong but appear to be right at least to a casual viewer. Thus, semantic attacks focus on a user, whereas syntactic attacks direct onto IT facilities. Even though the damages caused by semantic attacks can be of considerable extent, the group of syntactic attacks will be examined in more detail, since syntactic attacks are used more often and cause more damages. In fact, there are four categories of syntactic attacks (Janczewski, 2008, p. 27): viruses, worms, Trojans and a (distributed) denial-of-service attack (known as a DoS or a DDoS attack). Actually, the last one can be classified also as a semantic attack, since its result is a not working website. The different types of malware differ one from each other according to the target, the way of attack and the aim of attack, they can be coincident in some of these criteria, though. Similarly, the types of particular malware are endowed differently with three crucial factors of cyber attacks – fear factor (reactions caused by an attack), spectacular factor (incurred actual damages) and vulnerability factor (the "easiness" to hack a website of a facility due to the lack of IT security). Therefore, viruses, a self-injecting and self-reproducing malware that target IT systems and modify or eliminate already existing files in order to paralyze them, cause data loss and freeze or eliminate data knots. Since these malwares can change their digital footprint as well as attach themselves to every file seeming suitable for them, their spectacular and vulnerability factors are very high. Unlike viruses, worms do not need another file in order to spread, so they can affect a large number of computers in a very short time (a role-model case speaks about 259 000 computers affected in 14 hours (Janczewski, 2008, p. 27). Worms are actually a self-replicating malware that aims the IT systems in order to decrease functionality and the use of data knots in order to paralyze them. Moreover, it can be used for IT espionage; therefore it has an extremely high fear factor as well as vulnerability factor. Nonetheless, it is usually a Trojan that is used for espionage, since it is a non-injecting malware that enables unauthorized access to hack IT systems in order to track down the activities of hacked systems or in order to alienate data from them. A Trojan can be contained in a trial version of software or in a software updates and be just monitoring user's activity and gathering data, so users do not have to have any clue about having a Trojan in their device for a very long time. Additionally, it can be a part of some complex viruses and worms, so its fear factor as well as its vulnerability factor is very high, while the spectacular factor varies according to a concrete type of Trojan. Finally, (distributed) denial-of-service attacks (DoS or DDoS) try to break through the communication by short control and information messages that are focused on IT management in order to eliminate partly or wholly the availability of websites, ergo the online services proposed by them, and thus produce chaos and numerous losses. DoS attacks are usually carried out by overloading targeted sites and by generating error-diagnosed messages. However, the demands for websites are not sent directly, the DoS authors make domain name system (DNS) servers, operating only readable web addresses, which give out a number of Acta Informatica Pragensia 27 addresses readable only by a machine. Moreover, the DoS attack can be lead also through unprotected modems or routers of common users which can get disconnected from their internet connection in the end. Thus, the vulnerability factor as well as the fear factor of DoS attacks is enormously high, while their spectacular factor depends on the type of website that has been attacked (considerably high at a bank or PayPal websites). DoS attacks can be spread also by spam emails in order to overwhelm certain e-mail addresses or directly providers of email boxes. 2.3 Methods of Cyber Attacks Concerning the means most malwares target IT systems, the most popular today is definitely a zero-day attack. Hackers use a zero-day attack once they reveal a so-far unknown vulnerability of a used software or operational system that is not revealed yet to software authors or when there is not yet any available way of defence. Therefore, software users are in danger till software providers issue an upgraded version of software, which will resolve the zero-day issue. Paradoxically, according to the name of the attack, the revelation and correction of a zero-day vulnerability can take hours but also days or years. Furthermore, hackers sometimes just make a list of vulnerabilities of different software sometimes available online, thus everybody else can use it in order to create a malware targeting a concrete vulnerability at chosen software. In addition, software producers themselves could integrate the zero-vulnerability while programming the system or they could reveal a concrete description of zero-day vulnerability to different groups of interest or to state entities, while the made-to-measure software has been used elsewhere in a sensitive field like an energy sector. 3 3.1 Evidences for a new worldwide conflict: The Stuxnet family Appearance of Stuxnet The best example of malware using the zero-day vulnerability and at the same time, the best example of a malware used as a weapon by a country and not by individuals, is a worm called Stuxnet and its successors. In fact, Stuxnet itself was a pioneer among national cyber weapons, it was also the first part of a complex group of several malwares that complete one each other in terms of their functions as well as in terms of timing of their use having the same objective, though. Stuxnet malware appeared in IT security rumours for the first time in June 2009 but it was not found outside before June 2010 when it was discovered in Iranian nuclear facilities. However, the very first traces of Stuxnet in Iran nuclear facilities are dated even till 2005. Interestingly, the day before the report on Stuxnet was published by the Kaspersky Lab, the laboratory suffered a DoS attack and a part of its report was destroyed (Fidler, 2011, pp. 56-59) Finally, Stuxnet turned to be one of the most successful malwares, since it destroyed probably the whole nuclear programme operated on Siemens hardware, although Siemens company 28 M. Knopová, E. Knopová denied that any damages had been caused to the users of their equipment. (Langner, pp. 4951). It spreads mostly via USB flash drives and local networks to the Microsoft Windows operational systems targeting only Siemens controllers, which points out the idea of a potential cooperation between private software or hardware producers and states, since it is believed that Stuxnet is a product of the United States and Israel intelligence agencies. (Falliere, 2011). Actually, Stuxnet was probably the first worm ever that worked without a necessity of any remote control or internet access thanks to a programmable logic controller rootkit (PLC). Even though, its date of death (the day when a worm stops spreading) was supposed to be June 24, 2012, its last attack was noticed in power plants in Iran on December 25, 2012. (Collins, 2012). Nevertheless, Stuxnet did not spread through massive sources but it attacked with a very narrow focus. Hence, in order to know where to hit, Stuxnet authors probably needed another malware that would collect the information. 3.2 Stuxnet's Little Brothers: DUQU and Gauss In September 2011, The CrySyS (Laboratory of Cryptography and System Security) of the Budapest University of Technology and Economics discovered an unknown Trojan spyware operating especially in industrial control systems in the Middle East and called it DUQU. The Symantec agency studied the report more profoundly and found out that this zero-day vulnerability spyware (not a worm, since it did not auto-replicate) apparently came from creators of Stuxnet. DUQU's main task was to steal digital certificates, public and private cryptography and to monitor and select data. Later, DUQU's presence in Iran was acknowledged by Iranian authorities. BBC News. (2012a) Moreover, in August 2012, the Kaspersky Lab detected a Trojan spread mainly in the Middle East area, which tracked down the sensitive data about bank accounts and financial transactions. Newly recognized Trojan named Gauss was apparently created by a state entity, since it has not been used for stealing or fraud but only in order to watch transfers on selected bank accounts. "More than two thirds of the infections have been discovered in Lebanon, the home base of the political and military Hezbollah organization," (Schwartz, 2012) proclaimed Jarno Limnell, Stonesoft director of cyber security. In September 2012, several computer security companies informed about a new cyber espionage malware called Shamoon that acted in a very similar way like Gauss did but in the oil and energy sector. A self-injecting and a self-erasing virus attacked approximately 30,000 workstations of Saudi Aramco, which spent a week by renewing their services. (Symantec, 2012) However, even South Korean banks were hit by Shamoon attack recently, showing the danger of a boomerang effect of cyber weapons. 3.3 The Missing Piece of Puzzle Discovered: Meet Flame Nonetheless, the biggest piece of puzzle came in May 2012. The Kaspersky Lab brought a report about the existence of the most powerful malware so far, calling it Flame. It is pretty Acta Informatica Pragensia 29 difficult to answer what kind of malware Flame is because it is a kind of everything: "It is a backdoor, a Trojan, and it has worm-like features, allowing it to replicate in a local network and on removable media if it is commanded so by its master." (Zetter, 2012) Similarly to its ancestor, Stuxnet, Flame focuses on the surveillance of infected IT systems using the zero-day vulnerability. Fig. 1. Kaspersky Lab report on the number of Flame recorder attacks. Source: (Kaspersky Lab, 2012). Indeed, Flame can do almost everything. Besides the customary recording of data and monitoring the process running in a computer, it can also take screenshots of running applications, record of audio data through an internal microphone or get connected through a Bluetooth device of host computer to another devices and monitor their activities, too. Flame is not only an extremely big malware of 20 megabytes but also an exceptionally complicated programme. It is written partly in a form of C++ language, Lua scripting, whose "development cost is over 3000 lines of code, which for an average developer should take about a month to create and debug,"(CRySyS Lab, 2012) says the CrySyS Lab report. What is even more interesting is that Flame, circulating probably from March 2010, the time when Stuxnet was discovered, is believed to be rather a back-up plan: "Hence, we believe Flame to be a parallel project, created as a fallback in case some other project is discovered." (CRySyS Lab, 2012) Since Flame and so-called Tided platform i.e. Stuxnet/Duqu work on different platforms, although on the same principle using the same methods, it seems like creators of Stuxnet launched Flame, once Stuxnet was publically revealed. 30 M. Knopová, E. Knopová Yet, Flame as a widely spread tool which appeared even in French presidential office, BBC News. (2012b) probably needed also some smaller, more specialized complement. In July 2012, Kaspersky Lab discovered a Mini Flame, a highly specialized malware recognized only in several dozens of infections (maximum 50 – 60 worldwide). (Securelist, 2012) "Since it [miniFlame] is known to have worked both as part of Flame and as part of Gauss and since it shares its C&C servers with Flame, we believe that in most cases SPE was installed from C&C servers onto systems that were already infected with Flame or Gauss," (Securelist, 2012) thus, miniFlame is considered to be one of the last parts of the cyber puzzle destined to Iran and the Middle East area in general. Finally, the very recent discover of another malware in Iranian IT devices called Wiper can testify that some pieces may still be missing. 4 Conclusion In the warfare of the 21st century, cyber weapons will be definitely used more and more in terms of frequency as well as amplitude. They are relatively cheap, especially for countries with a developed IT sector, their authors could be hardly proven to be guilty, since direct evidences of hacking one's system are practically unable to be tracked down, and their use is not limited by any international legal framework for now. Therefore, if it is possible to use a hard power without being seriously accused on the base of direct evidences, which is exactly the power cyber weapons have, therefore countries will not hesitate and use it. Moreover, the rising number and weight of recently revealed cyber attacks represented mostly by the family of Stuxnet and Flame malwares, whose origin is probably common and not private but national pointing out especially the USA - Israel direction, is a strong evidence for sharply evolving cyber warfare, especially in the world where evident hard power, whose author is known, is not convenient to use because of international relations. Besides, the revealed attacks make one think that there is a few of ongoing malware attacks that have not been discovered yet. Nonetheless, cyber weapons have their limits, too. For instance, they can have a boomerang effect that is highly dangerous like in the example of South Korea when authors of malware or its allies did not have appropriate protection against the pieces of their own work. In addition, the use of internet and digitalization of (nuclear) energy sector is rather limited like in the case of North Korea. In any case, the danger of cyber attacks from different actors will rise and due to the lack of a clear international mechanism for cyber security, (as vast majority of current international security mechanisms do not cover the area of cyber security), each country shall create and further develop its own protective system, a sort of its own "cyber army". For instance, the United States of America has created already in 2009 a system called Cyber Command, however, the Czech Republic does not lag behind and this May, it has created the National Centre for Cyber Security called CERT in Brno. CERT should monitor all possible risks to cyber security, ensure cooperation between different agencies and institutions dealing with cyber security on national as well as on international level and develop new standards and Acta Informatica Pragensia 31 tools of cyber security system. Thus, a system of national cyber security for the Czech Republic has been already launched; nevertheless, it should get more attention from public as well as from the government especially in terms of finances. To conclude, today's world has been currently undergoing a new paradigm shift where cyber weapons and cyber warfare are taking over the place of regular weapons and warfare that dominated so far. It is obvious that a real world-wide cyber conflict between two countries with equally high developed IT sector has not burst out yet. However, when it does, it will be probably the last sophisticated conflict before these countries take up their stone clubs again. References BBC News. (2012a, June 8). Flame malware makers send 'suicide' code. Retrieved from http://www.bbc.com/news/technology-18365844. BBC News. (2012b, May 31). Flame: Israel rejects link to malware cyber-attack. Retrieved from http://www.bbc.com/news/technology-18277555. Biggs, J. (2007, October 18). Cyberwar: China Declares War On Western Search Sites. Retrieved from http://techcrunch.com/2007/10/18/cyberwar-china-declares-war-on-western-search-sites/. Carr, J. (2011). Inside Cyber Warfare: Mapping the Cyber Underworld. Sebastopol, CA: O'Reilly Media. Clarke, R. A., Knak, R. K. (2010). Cyber War: The Next Threat to National Security and What to Do about It. New York: HarperCollins. Collins, S., McCombie, S. (2012). Stuxnet: the emergence of a new cyber weapon and its implications. Journal of Policing, Intelligence and Counter Terrorism, 7(1), 80-91. CRySyS Lab. (2012, 28 May). sKyWIper: A Complex Malware for Targeted Attacks. Budapest University of Technology and Economics. Retrieved from http://www.crysys.hu/skywiper/skywiper.pdf. Engleman, E. (2012, December 20). Major Banks Under Renewed Cyber Attack Targeting Websites. Retrieved from http://www.bloomberg.com/news/2012-12-20/major-banks-under-renewed-cyber-attack-targetingwebsites.html. Erdbrink, T. (2012, April 23). Facing Cyberattack, Iranian Officials Disconnect Some Oil Terminals From Internet. The New York Times. Retrieved from http://www.nytimes.com/2012/04/24/world/middleeast/iranian-oil-sites-go-offline-amidcyberattack.html?_r=0. Esposito, M. K. (2012). Quarterly Update on Conflict and Diplomacy. Journal of Palestine Studies, 42(1). Retrieved from http://www.palestine-studies.org/files/pdf/jps/9765.pdf. Farewell J. P., Rohozinski R. (2011). Stuxnet and the Future of Cyber War. Survival: Global Politics and Strategy, 53(1), 23–40. Fidler, D. P. (2011). Was Stuxnet an Act of War? Decoding a Cyberattack. IEEE Security & Privacy, 9(4), 5659. Finkle J. (2013, January 16). UPDATE 1-Malicious virus shuttered U.S. power plant -DHS. Reuters. Retrieved from http://www.reuters.com/article/2013/01/16/cybersecurity-powerplants-idUSL1E9CGFPY20130116. Howard, M., Paret, P. (1984). On War. New Jersey: Princeton University Press. Janczewski, L., Colarik, A. M. (2008). Cyber Warfare and Cyber Terrorism. Hershey: Information Science Reference. John, A. J., Ronfeldt, D. (1993). Cyberwar is Coming! Comparative Strategy, 12(2), 141–165. Kaminski, R. (2012). Clash of Interpretations: Cyberattacks as “Weapons of Mass Destruction” In The 2012 Annual Meeting of the American Political Science Association. Retrieved from http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2107008. 32 M. Knopová, E. Knopová Kaspersky Lab. (2012, June 11). Resource 207: Kaspersky Lab Research Proves that Stuxnet and Flame Developers are Connected. Retrieved from http://www.kaspersky.com/about/news/virus/2012/Resource_207_Kaspersky_Lab_Research_Proves_that_ Stuxnet_and_Flame_Developers_are_Connected. Kindlund, D. (2012, May 30). Flamer/sKyWIper Malware: Analysis. FireEye. Retrieved http://www.fireeye.com/blog/technical/targeted-attack/2012/05/flamerskywiper-analysis.html. from Langner, R. (2011). Stuxnet: Dissecting a Cyberwarfare Weapon. IEEE Security & Privacy, 9(3), 49-51. Lee, D. (2012, May 29). Flame: Massive Cyber-Attack Discovered, Researchers Say. BBC News. Retrieved from http://www.bbc.com/news/technology-18238326. Lynn, W. J. (2010). Defending a New Domain: The Pentagon's Cyberstrategy. Foreign Affairs. 97–108. Matrosov, A., Rodionov, E., Harley, D., Malcho, J. (2010). Stuxnet Under the Microscope. Retrieved from http://www.eset.com/us/resources/white-papers/Stuxnet_Under_the_Microscope.pdf. Muskal, M., Guynn, J. (2013, February 1). Hackers target Western news organizations in China. Los Angeles Times. Retrieved from http://articles.latimes.com/2013/feb/01/business/la-fi-china-hacking-20130201. Nakashima, E. (2012, June 20). Israel developed Flame computer virus to slow Iranian nuclear efforts, officials say. The Washington Post. Retrieved from http://www.washingtonpost.com/world/national-security/usisrael-developed-computer-virus-to-slow-iranian-nuclear-efforts-officialssay/2012/06/19/gJQA6xBPoV_story.html. Nicolas F., Liam O. M., Eric, Ch. (2011) W32. Stuxnet Dossier. Symantec Report. Retrieved from http://www.wired.com/images_blogs/threatlevel/2011/02/Symantec-Stuxnet-Update-Feb-2011.pdf. SciencePages. (2013, March). Cyber Security. Retrieved from http://sciencepages.ca/wp-content/uploads/cybersecurity.pdf. Schneier B. (2010, July 10). Threat of 'cyberwar' has been hugely hyped. http://edition.cnn.com/2010/OPINION/07/07/schneier.cyberwar.hyped/index.html. Retrieved from Schwartz, M. J. (2012, August 9). Flame 2.0: Gauss Malware Targets Banking Credentials. Retrieved from http://www.darkreading.com/attacks-and-breaches/flame-20-gauss-malware-targets-bankingcredentials/d/d-id/1105727?. Securelist.com. (2012, October 15). MiniFlame aka SPE: "Elvis and his friends". Retrieved from http://www.bbc.com/news/world-europe-20429704. Silverstein, R. (2012, May 29). Flame: Israel’s New Contribution to Middle East Cyberwar. Retrieved from http://www.richardsilverstein.com/2012/05/28/flame-israels-new-contribution-to-middle-east-cyberwar/. Symantec. (2012, August). The Shamoon Attacks. Retrieved from http://www.symantec.com/connect/blogs/shamoon-attacks. Symantec Official Blog (2012, May 30). Flamer: Highly Sophisticated and Discreet Threat Targets the Middle East. (Web log post). Retrieved from http://www.symantec.com/connect/blogs/flamer-highlysophisticated-and-discreet-threat-targets-middle-east. The New York Times. (2013, 12 February). President Obama' State of Union speech. Retrieved from http://www.nytimes.com/2013/02/13/us/politics/obamas-2013-state-of-the-unionaddress.html?pagewanted=all. Zetter, K. (2012, May 29). Meet 'Flame,' The Massive Spy Malware Infiltrating Iranian Computers. Wired. Retrieved from http://mashable.com/2012/06/04/flame-malware/. Acta Informatica Pragensia 3(1), 2014, 33–43, DOI: 10.18267/j.aip.34 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers Business Case v podmínkách obchodního řízení a IT Governance Business Case in terms of Business Management and IT Governance Jan Juříček1 1 Katedra systémové analýzy, Fakulta informatiky a statistiky, Vysoká škola ekonomická v Praze nám. W. Churchilla 4, 130 67 Praha 3 [email protected] Abstrakt: Cílem tohoto článku je definovat problém nedostatečné kvality zavedení Business Case (BC) v modelové organizaci. Druhotným cílem je definice BC ve vztahu k IT Governance. Na základě definic z předložených metodik (COBIT, ValueIT, RiskIT, PMBOK, PRINCE2, aj.) aplikovaných na téma řízení investic a řízení financí v oblasti IT, jsou vybrány vhodné procesy a kontrolní body, které navedou k řešení předmětné oblasti a navrhnou se procedury řádného auditu této skutečnosti. Klíčová slova: Business Case, IT Governance, COBIT, ValueIT, řízení investic IT, řízení rizik IT Abstract: The aim of this paper covers a definition of the issue of inadequate quality of Business Case (BC) implementaiton in a model organization. A secondary objective is the definition of BC in relation to IT Governance. Presented methodologies (such as COBIT, ValueIT, RiskIT, PMBOK, PRINCE2) are applied on investment management and financial management in the IT field. Appropriate processes and checkpoints of those methodologies are chosen to suggest the proper procedures of an audit within a model organization. Keywords: Business Case, IT Governance, COBIT, ValueIT, IT Investment Management, Risk Management IT 34 Juříček 1 Úvod Cílem tohoto článku je definovat problém nedostatečné kvality zavedení Business case (dále jen BC – dále se také užívá český překlad investiční rozvaha) v modelové organizaci. Druhotným cílem je definice BC ve vztahu k IT Governance. V kontextu investiční rozvahy se jedná o systematické popsání cesty, která vede ze současného stavu věci ve stav požadovaný. Tato systematičnost definuje sepsání konkrétních cílů a postupů (včetně nutných rozhodnutí), a snaží se odhadnout dopady, rozpočty i návaznosti. Velmi důležité se jeví nezapomenout na akcionáře – nositele a zodpovědné pracovníky – „stakeholdery“ změn, které tato cesta přináší. Na základě definic z předložených metodik (COBIT, ValueIT, RiskIT, PMBOK, PRINCE2 atd.) aplikovaných na téma řízení investic a řízení financí v oblasti IT, jsou vybrány vhodné procesy a kontrolní body, které navedou k řešení předmětné oblasti a navrhnou se procedury řádného auditu této skutečnosti. Organizací, na které bude problém definován i řešen, je modelová malá až střední konzultační firma o velikosti 10-20 zaměstnanců a jednotek externistů. Tato modelová firma generuje zisk skrze externí IT projekty u svých zákazníků. Pro řízení externích projektů využívá metodiku PRINCE2 (TSO, 2009); pro řízení interních procesů IT využívá organizace poznatky z metodiky Cobit 4 (ITG, 2003; ITG, 2010). 2 Definice Business Case Co je vlastně BC? Volně přeloženo “obchodní případ” nebo „investiční rozvaha“ má více dimenzí, než jen vyplývá z finančního výkladu těchto přeložených sousloví. BC plně zachycuje odůvodnění pro zahájení nějaké činnosti, projektu nebo úkolu v dané organizaci. Tato odůvodnění jsou interpretována ve strukturované písemné podobě ve formě dokumentu, tabulky nebo prezentace. Val IT („value IT“ – v překladu hodnota IT) je dokument rozšiřující metodiku COBIT o podporu řízení investic v oblasti IT. Val IT definuje BC jako odpověď při podpoře rozhodovacího procesu pro realizaci nových investicí v oblasti informačních technologií (ITG, 2008). Jak již bylo naznačeno, Val IT je dokument úzce spjatý s metodikou COBIT. Jedná se o sadu všeobecně přijímaných procesů, návodů pro hodnocení, ukazatelů a nejlepších praktických zkušeností, která má za cíl pomoci organizaci maximalizovat užitek, plynoucí z informačních technologií (Svatá, 2011). Princip metodik COBIT je založený na 3 aspektech řízení IT: IT procesy (domény, procesy a jednotlivé aktivity), Informační kritéria (kvalita) a IT Zdroje. V procesech jsou poskytovány manažerské návody popisů vazeb mezi procesy formou vstupů a výstupů, cílů a kritérií zralosti (RACI matice) a kontrolních cílů. Val IT doplňuje metodiku COBIT z obchodního a finančního hlediska (ITG, 2008; Svatá, 2011). Val IT metodicky rozpracovává tři hlavní termíny (projekt, portfolio, program) a 3 hlavní domény: Value Governance, Portfolio Management a Investment Management. Tyto domény jsou tvořeny dalšími procesy. Každý proces v rámci domény definuje klíčové praktiky řízení. Procesy obsahují stručný popis hlavních aspektů daného procesu; definuje manažerské návody v podobě cílů, vstupů a výstupů, odpovědností a metrik. V kontextu dokumentu Val IT je nutno specifikovat, že BC klade důraz na dosažení hodnoty projektu (hodnota plynoucí z investice) a nikoliv na dodržení postupu projektu. Acta Informatica Pragensia 35 Jaké činnosti, projekty nebo úkoly v kontextu s řízením investic a tedy aplikací BC budeme nadále předpokládat? V oblasti vyměřené small-medium-business (SMB), neboli v modelové malé střední konzultační firmě, se jedná o dvě logické skupiny: - - 2.1 Ve vztahu k IT Governance – investice (interní projekty) do ryze interních IT nástrojů a IT řešení a nadimenzování investic jdoucích do provozu těchto řešení. Jedná se typicky o dokumentační systémy, vnitrofiremní komunikační prostředky a portály (například MS Sharepoint), vnitrofiremní CRM a základní datové sklady, účetní software, systém pro sledování IT majetku a IT vybavení. Zákaznické externí projekty – generování zisku malé a střední konzultační společnosti. Komponenty Business Case BC je jedna z nejdůležitějších komponent rozhodování o veškerých činnostech organizace. Z praktického hlediska jde o dva artefakty: 1. kalkulaci, která je sestavena a hodnocena ke každému obchodnímu případu 2. slovní popis – odůvodnění řešení určitým způsobem (viz dále – slovní popis dle Val IT (ITG, 2008; Kloppenborg, Manolis, Tesch, 2009; Kraft, 2009)) a. slovní popis definice problému, rizika nebo příležitosti b. soupis požadavků na řešení c. způsob postavení se k problému - řešení určité příležitosti d. soupis dodávek řešení - předmětů dodávek e. soupis předpokladů úspěchu f. očekávaný harmonogram g. předpokládaná akceptační kritéria h. soupis zdrojů i. vstupní rizika V kontextu prvního bodu musí tato kalkulační tabulka udávat veškeré vstupy – finanční náklady na vykonání určité činnosti nebo projektu. Tyto náklady na veškeré zdroje (lidské, finanční, materiálové, nehmotné) musejí být rozloženy v čase, tzn. mají být uvedeny informace. Kdy budou náklady čerpány (základní plánování cashflow) a náležitě diskontovány (pokud bude projekt nebo činnost probíhat více než jeden rok). Dále musí obsahovat všechny předpokládané finanční výstupy – tzn. příjmy plynoucí z této investice nebo z vykonaného díla (projektu) ve formě fakturace na zákazníka. Praxe naznačuje, že realizovaný projekt přináší vedlejší přidanou hodnotu, která bude po dobu konání a realizování určité BC vytvořena. Nejdůležitější je umění takovou hodnotu nacenit. Typicky se může jednat o zvýšenou uživatelskou gramotnost zaměstnanců – zvýšení produktivity atd. Poslední věcí, která se musí v BC objevit, je nacenění rizika. Riziko nám dokáže zredukovat příjmy či navýšit náklady. Nacenění rizika probíhá zpravidla finančním odhadem dopadu problému, který z neřízeného rizika vznikne a odhadem pravděpodobnosti výskytu tohoto rizika (že nastane). Oblast řízení rizik je významnou oblastí IT Governance (Svatá, 2011). Komplexní rámec pro řízení rizik, jenž integruje různé úrovně řízení a zároveň je aplikovatelný v přijatelném detailu právě pro oblast řízení IT rizik, je dokument Risk IT. Skládá se z rámce pro řízení IT rizik a z návodu pro řízení (ISACA, 2009). 36 Juříček Dokument je členěn do domén a procesů. Pro naše další zkoumání bude nejvýznamnější především doména Hodnocení rizika („Risk Evaluation“), které se skládá z analýzy rizika, shromažďování dat a udržení profilu rizik (Svatá, 2011; ISACA, 2009). 2.2 Business Case dle ValIT Jak již vyplývá z výše uvedeného, BC není statickým dokumentem. Val IT definuje BC jako funkční nástroj, který musí být neustále aktualizován, aby odrážel současnou realitu (současný stav) tak, aby poskytoval základ pro informované rozhodování a to nejen pro počáteční nasazení zdrojů, ale i za správu investic v celé ekonomické životnosti obchodního případu (ITG, 2008). BC má relevantně, přesně a aktuálně odpovídat na otázky: 1. 2. 3. 3 Děláme správné věci? a. Co je navrženo? b. Pro jaký obchodní výsledek? Děláme věci správně? a. Jak to udělat? b. Co se má udělat v souladu s našimi možnostmi? c. Jaký je plán? d. Jaké jsou potřeba zdroje? Získáváme benefity? a. Jak je dostaneme? Jakou cestou? b. Jaká je jejich hodnota? Definice problému ne-existence Business Case V modelové organizaci dochází na pravidelné produktové i projektové bázi k sestavení BC pro interní (investice do IT) i externí činnosti (projekty – zakázky). Na každý obchodní případ nebo vyvinutí určitého produktu či řešení musí existovat BC. BC je schvalován na úrovni obchodního manažera – partnera a divizního manažera, který má na starosti chod svého oddělení. Při kalkulacích je nutno dbát o co nejvěrnější odhady nákladů, výstupů i rizik. Opakující se problémy v organizaci jsou následující: 1. 2. 3. 4. 5. 6. v rámci nákladů nedochází ke správnému nacenění zdrojů – neúspěšné odhadování nákladů neexistují pevně definovaní vlastníci BC pro nové produkty a nové projekty mimo pevnou organizační strukturu – neexistuje ani přesně definovaný proces. Stává se běžnou praxí, že projekty nemají vlastníka. neexistují BC na IT/ICT vybavení chodu společnosti – organizace je nedokáží nacenit a též docenit (odhadnout přínosy), nebo dát do souvislosti se strategií společnosti není možné věrně nacenit riziko nebo více sofistikovaně odhadnout jeho pravděpodobnost. Rizika jsou pravidelně zcela vypouštěna a ignorována. panuje obava o nedostatečném zabezpečení informací pramenící z uložených BC, tj. zneužití informací atd. ve výstupech se nezohledňují získané měkké dovednosti lidí, know-how, apod. a poté se již s touto hodnotou dále nepracuje a podobné projekty (investice) stojí v budoucnu stejně nebo více úsilí (což není logické – „něco“ se člověk naučí a pak to používá) Acta Informatica Pragensia 37 3.1 Odhadování nákladů IS/IT jakožto vstupů do Business Case V oblasti odhadování IS/IT projektů bylo v uplynulých letech vyvinuto značné množství různorodých metod. Použití metody odhadování IS/IT projektů by mělo být zohledňováno na fázi projektu, ve které se odhadovatel nachází, a různorodé spektrum externích vlivů, jejichž složení a intenzita působení je velmi rozdílná a individuální (Kloppenborg, Manolis, Tesch, 2009; Kraft, 2009; Král, 2012). Metody odhadu pracnosti a tím spojených nákladů jsou: 1. 2. 3. 4. 5. CPM – Metoda kritické cesty, jež je řazena mezi deterministické metody síťové analýzy. Základními cíli metody je stanovení nákladů projektu a doby trvání prací na základě délky takzvané kritické cesty. Metoda je vhodná pro projekty, kde lze s vysokou přesností odhadnout doby trvání jednotlivých činností. Doby trvání činností bývají stanoveny na základě empirických zkušeností (Král, 2012). Metoda PERT, jež zobecňuje metodu CPM, jejíž nevýhodou je nutnost minimální nejistoty při odhadu doby trvání činnosti. Tato nejistota je odstraněna využitím statistiky. Metoda kritického řetězu, jež eliminuje vliv negativních faktorů: multitasking, dostupnost zdrojů, Parkinsonův projektový zákon, studentský syndrom, princip štafetového běžce a časové nárazníky (Král, 2012). Algoritmus FPA a UCP (standardy dle ISO, přesné výsledky ve fázi detailního návrhu, Use Case odhady) Algoritmy COCOMO – odhady odhadované v závislosti na regresní analýze, primárně aplikovaná na SW projekty V procesně orientovaných projektových metodikách existují na téma vstupů do BC jen malé a nesourodé názory na tuto oblast. PRINCE2 (TSO, 2009) definuje dvě základní procesní skupiny při zahajování projektu: „Starting Up the Project“ a „Initiating of Project“. Přičemž BC se vyskytuje až ve druhé z těchto částí. První části se věnují projektovému a stručnému vymezení, které svým způsobem kopíruje druhý bod definice BC uvedeného v první kapitole tohoto článku (slovní popis). BC je v této metodice definována jako (TSO, 2009): 1. 2. stanovení odpovědi na otázku PROČ se má určitá práce nebo alokování zdrojů uskutečnit, a to na základě sestavení předpokládaných přínosů k rizikům a nákladům zrevidování možnosti vůbec řešit určitý problém nebo úkol. Toto zrevidování je chápáno nejen po stránce faktické – technické, ale také strategické Metodika PRINCE2 zdůrazňuje nutnost souladu, propojení BC s projektovým plánem, co do harmonogramu projektu, tak možnostmi se v každé fázi rozhodnout, jakým směrem pokračovat dále. Dále zdůrazňuje tu skutečnost, že všechny zamýšlené BC musejí být v souladu se strategií společnosti v širším rozsahu. Metodika stanoví kompozici BC na tyto části (TSO, 2009): - důvod, možnosti a doporučení, předpokládané benefity přínosy nejlépe vyjádřené kvantitativně (měřitelně), klíčová rizika, náklady, předpokládaná časová osa a harmonogram, hodnocení investic, 38 Juříček - hodnocení. Druhá procesně orientovaná metodika řízení projektů je k otázce definice BC ještě střídmější. Dle PMI (2008) – Project Management Institute (PMBOK) je BC definován jako vstupní komponenta (dokument) do fáze iniciace. A dále s tímto parametrem není v rámci této metodiky nakládáno. BC podle PMI poskytuje nezbytné informace z obchodního úhlu pohledu k určení realizace projektu a požadovaných investic. 4 Řešení předmětné oblasti Dokument Val IT uvádí postup tvorby BC, viz níže na Obrázku 1. Základní okruhy informací, které by měl BC obsahovat jsou: - Zhodnocení souladu dané investiční akce s podnikovou strategií (např. Identifikace strategických cílů podniku, které investiční akce podporuje). Zhodnocení očekávaných finančních výnosů po celý životní cyklus (např. určení doby návratnosti vložených investic, shrnutí finančních toků spojených s realizací investiční akce apod.). Zhodnocení očekávaných nefinančních výnosů po celý životní cyklus investiční akce (např. dopady investiční akce na loajalitu odběratelů, dopady akce na tržní vnímání podniku apod.). Zhodnocení rizik investiční akce (např. omezené schopnosti zvládnout možnosti moderních technologií ze strany uživatelů apod.). Analýza vazeb propojení IT investic s cílovým stavem podnikové architektury (u interních IT projektů) a propojení IT investic s obchodní strategií. Obr. 1. Postup tvorby BC dle ValIT. Zdroj: (ITG, 2008) Prvotně je důležité uvědomit si, proč BC mají vznikat. Je to právě z důvodu vyjádření měřitelné hodnoty skrz IT/ICT prostředky při naplňování strategie společnosti: dodáváním řešení a služeb v definované kvalitě, za danou cenu a ve smluveném čase (a), zlepšování reputace u našich zákazníků (b), snižování nákladů a stále zdokonalení vlastních produktů a služeb (c) organizace. V modelové organizaci se nejdříve pracovníci soustředili na komunikaci samotné potřeby vytvoření BC. Zaměstnanci princip toho, proč vlastně je vytvářena BC nechápali a považovali proces za zvýšenou administrativu. Principy jsou vysvětleny v definiční sekci tohoto článku. Největší zjištění v modelové organizaci bylo, že pouze na základě vypracované BC (někdo se nad tím skutečně zamyslel) bylo pracovníkům i managementu objasněné a zřejmé CO skutečně po uskutečnění určité činnosti vznikne a KOLIK to bude stát (KDY to vznikne, KOLIK zdrojů si činnost vezme) a KDO bude finálním uživatelem. Velmi důležití je akcentování metodiky PRINCE2 (TSO, 2009) v oblasti definování výstupů (“deliverables”), činnosti a řešení v BC. Acta Informatica Pragensia 39 Druhým krokem je aplikace COBIT (viz výše). Jak bylo řešeno v definiční části, COBIT rozlišuje 4 úrovně cílů: podnikatelské, IT cíle, cíle IT procesů a cíle IT aktivit (Svatá, 2011). Aplikací této logiky je stanovení určitých obchodních cílů, kterých je možno v organizaci bezprostředně dosáhnout tak, aby korespondovaly s největšími problémy stanovenými v předchozí kapitole, tj.: kontrolou nákladů a zvýšení produktivity provozu a zaměstnanců. Jedná se o prolnutí dimenzí interních procesů, finanční dimenze a opakovaného získávání know-how. Korespondující procesy v metodice COBIT jsou: P05 Řízení investic, dále pak PO7 - řízení lidských zdrojů v IT a PO10 - řízení projektů. V tomto okamžiku je vhodné identifikovat úroveň vyzrálosti těchto procesů v aktuálním stavu. U každého procesu lze nalézt model zralosti. Ten tradičně rozlišuje 5 úrovní. Každá je popsána tak, aby byla jednoduše identifikovatelná a současně obsahuje návod pro zvýšení úrovně. Blíže tak popisuje Tabulka 1. Úrovně zralosti Popis 0 – neexistující 1 – počáteční 2 – opakovaná 3 – definovaná 4 – řízená a měřitelná 5 – optimalizovaná Není povědomí o důležitosti Nekonzistentní realizace Neformalizované nástroje, netaktické rozhodování Dokumentováno, dodržování pravidel, do jisté míry individuální Zodpovědnost jednotlivců, proaktiví rozhodování Best-practice, kontinuální zlepšování v celém životním cyklu procesu Tab. 1. Úroveň zralosti procesů COBIT. Zdroj: (Svatá, 2011) V modelové organizaci byl identifikován tento proces řízení na úrovni 1 ze zralostní matice. Poté bylo nastaveno pravidelné review a interní audit všech BC, viz. níže. Je vhodné též aplikovat metody COBIT v rámci aplikace RACI matice: pojmenování vlastníků BC a sestavení odpovídající RACI matice k procesu sestavení, schválení a řízení BC. RACI matice je v rámci modelové organizace sestavena následovně (viz Tabulka 2): ZAVEDENÍ PROCESU BC INTEGRACE S BUDGET REPORTEM NÁKLADOVÉ POLOŽKY I I I I A PROJECT MANAGER R C R C/I KONZULTANT C JEDNATEL INTEGRACE S CRM A OFFICE MANAGER OBCHODNÍK HEAD OF UNIT, VEDOUCÍ ODDĚLENÍ R/C VÝNOSOVÉ POLOŽKY RIZIKO (NACENĚNÍ) SESTAVENÍ BC C A I I R C I R C/I I C I SCHVÁLENÍ BC (PROCES A ROZHODNUTÍ) C I C C/I R C Tab. 2. RACI matice pro proces řízení BC. Zdroj: Autor. Přičemž jsou v rámci modelové organizace definovány následující vztahy mezi subprocesy a vlastníky: 40 Juříček R – zodpovědná osoba / role za provedení činnosti nebo úkolu A – vlastník (“accountability” – pravomoc, pravomoc v naší společnosti rozhodnout o realizaci činnosti anebo přijímat finanční následky činnosti (ztrátu / zisk)) C – s kým se konzultuje I – koho je potřeba informovat V tuto chvíli se již pracuje s pojmy “vlastník” a “odpovědnost”. Dle COBIT je vhodné nastavit proces následně: 1. odpovědné osoby dle výše uvedené tabulky jsou projektový manažeři, vedoucí konzultanti a obchodníci 2. vlastníci BC jsou partneři a jednatel společnosti (vzhledem k velikosti modelové organizace) Jakékoliv další aktivity byly v modelové organizaci seškrtány. Vytvoření takovéto přehledné matice má totiž dvě podstatné výhody. První z nich je fakt, že došlo k explicitní definici někdy spíše tušených než jasně vyřčených odpovědností a kompetencí. Další výhodou je možnost matici analyzovat a poměrně snadno identifikovat problémy s rozdělením odpovědností pouhou vizuální kontrolou. V rámci kontroly lze postupovat následovně: pokud se v jednotlivých řádcích nahromadí příliš mnoho rolí s „R“, v daném kroku je zapojeno zbytečně mnoho lidí; bylo-li v něm více než jedno „A“, skutečně dochází ke zmatení kompetencí a tím k obecnému zmatku. Pokud někde úplně chybí “R” (jak „R“ tak „A“), nemá tak vlastně daný krok kdo udělat a nikdo tento krok (sub-proces) nevlastní. U velkého množství „C“ a „I“ v daném řádku je dobré se zamyslet, zda skutečně všichni tito lidé potřebují znát všechny detaily. V horizontální rovině je pak zejména možné optimalizovat vytížení jednotlivých rolí. Pokud některá z rolí nakumuluje velký počet „A“, nebo nemá žádné prázdné buňky, je pravděpodobně přetížena. Velké množství „A“ pak také ukazuje na možné nevhodné rozdělení odpovědnosti za jednotlivé kroky. Pokud naopak u dané role žádná „A“ ani „R“ nejsou, stojí za úvahu její možné vyřazení z procesu BC. Vzhledem k velikosti modelové firmy však již toto nenastalo. K rizikům je vhodné řídit se dle norem COBIT, respektive RiskIT, přičemž v BC naceňujeme jak rizika samotná, tak hrozby. Dle normy ISO 27005 a RiskIT jsou dimenze řízení rizik následující: Risk Governance respektive určení kontextu stanovení kritérií, Risk Evaluation shromáždění dat, analýza rizik a jejich ohodnocení a Risk Response tzn. zvládnutí rizika a určení kroků opatření ke snížení rizik (ITG, 2010). Tato metoda definuje různé strategie, jak se rizikům postavit: akceptovat, snížit, ukončit - „terminovat“, převést na třetí stranu a zvolit plán „co nastane, když“ (tzn. „contingency plan“). Metodika PRINCE2 nad rámec uvedeného udává pomyslnou čtvrtou etapu, kterou je risk monitoring (TSO, 2009). COBIT (ITG, 2008; ITG, 2009) toto přímo neetapizuje, ale definuje jak v doméně Risk Governance (zavedení a udržování, řízení rizik jako součást rozhodování), tak v doméně Hodnocení rizika (udržování profilu rizik). V rámci zjednodušení tohoto modelu se při sestavování a řízení BC ovšem dostáváme záměrně jen do prvních dvou fází – sběru dat (identifikování a popisu rizika) a jeho hodnocení (tzn. peněžní vyjádření závažnosti rizika). Hodnocení rizik, přičemž zodpovědný pracovník za obhájení záchranného finančního polštáře v rozpočtu projektu je projektový vedoucí, je postavena na dvou škálách: pravděpodobnost a dopad. Dopad vždy vyjadřujeme jako celkový finanční dopad určitého problému (tj. stavu kdy riziko nastane). Pravděpodobnost určujeme pouze na stupnici o 4 hodnotách v procentech: 20 – 40 – Acta Informatica Pragensia 41 60 – 80 procent (nízká, středně malá, středně vysoká, vysoká pravděpodobnost). Závažnost je pak součinem mezi dopadem a pravděpodobností. Nejedná se tak o definovanou kvantitativní metodu, jejímž vyjádřením je korelace mezi hodnotou hrozby a hodnotou ochrany (Svatá, 2011), nýbrž o zjednodušenou kvalitativní metodu stanovení stupňů závažnosti. Na základě dokumentu Risk IT lze usuzovat, že rizika s nízkou pravděpodobností a nízkým dopadem (finančním) ignorujeme (nebo jsou považovány za příležitost), a analogicky, naopak BC, kde se vyskytuje vysoká pravděpodobnost rizika s vyšším finančním dopadem, zásadně nepřijímáme a do takových akcí - investicí se nepouštíme. 5 Definování prvků a procedury auditu Business Case Audit BC slouží jako nestranný interní průzkum a ověření si dodržování předem definovaných procesů a náležitostí, které musí BC při své tvorbě sestavení i schvalování obsahovat. V rámci modelu se jedná o interní audit. Interní audit je v organizaci vykonáván jedním z partnerů, který má na starosti finanční řízení společnosti. Metodické pokyny pro audit lze nalézt v dokumentu IT Assurance Guide: Using COBIT (ITG, 2007), který je založen na etapách a činnostech stejně tak, jako je tomu u běžného projektu. Tento dokument odpovídá na otázky, jaké kroky se mají realizovat a jaké druhy testů nebo kontrol je třeba provést ve vazbě právě na jednotlivé procesy COBIT. V rámci definování procesu a prvků auditu BC je vhodné postupovat podle pokynů IT Assurance Guide: předmět – plán – realizace – závěr – sledování. Předmětem jsou procesy schvalování BC, vytvoření BC, schválení BC a monitoring a zpětné vyhodnocení BC. Cílem je tedy zkontrolovat, zdali nebyl narušen proces sestavení a schválení a tím přezkoumat, že se v dané organizaci děje něco, co nemá schválený a kontrolovaný základ. Dalším vymezeným cílem je přezkoumání alokace a utilizace pracovníků tak, aby se dalo poměrně jednoduše zpětně auditovat, zdali se pracovalo na určitém úkolu vymezeném v BC podle plánu – tedy dle stanovených mantinelů nákladu na IT zdroje definované v BC; a pokud ne, tak se z toho poučit. Na základě IT Assurance Guide: Using COBIT lze stanovit následující prvky a rozsah auditu: 1. BC musí být dohledatelná. BC bude existovat pro každý obchodní případ (v případě externího pojetí), nebo projekt, případně pro nákup a provozování techniky nebo podpůrného systému (interní investice) 2. BC se bude nacházet v jedné z následujících složek na sdíleném projektovém disku / DMS / Microsoft Sharepoint 3. BC bude ve „workflow“ schválena jako „platná“ vedoucím určité obchodní unity, stejně tak musí být s příznakem „platná“ označena obchodníkem a projektovým manažerem (v případě externích projektů pak obchodník zodpovídá za výnosové položky, projektový manažer za nákladové položky a riziko) 4. BC může mít příznak „schválena“, což jí posouvá do realizace. Za schválené BC je zodpovědný jednatel (modelová malá firma) Neexistují žádné BC v realizaci, které nemají tento příznak 5. Interní investice jsou vedeny pod obchodní unitou Office Management 6. bude přezkoumáno finanční plnění BC a BC rozdělen na dvě složky: plán a „aktuální stav“. Auditor zkontroluje dle platné rozpočtové zprávy čerpání rozpočtu a nesrovnalosti zapíše do finální zprávy 42 Juříček Tento rozsah kontrolních činností lze stanovit a provádět jednou za 2 měsíce. Výstupem je definovaná tabulka všech hodnocených BC a zpráva ve formátu MS Word, která bude shrnovat nedostatky při šetření výše uvedených bodů. 6 Závěr Při dodržení principů definovaných v metodice COBIT a jeho rozšiřujících dokumentů ValIT a RiskIT, potažmo návodů v Assurance Guide: Using COBIT a bodů definovaných v sekci řešení předmětné oblasti tohoto článku dochází ke zvýšení úrovně vyzrálosti procesu sestavení a schvalování BC. Analogicky dochází k větší kontrolovatelnosti i optimalizaci celého procesu a tím zvyšování obchodních výsledků organizace. V rámci dalšího zkoumání je vhodné se zaměřit na udržitelnost procesu kontinuálního řízení projektů a IT GOVERNANCE pomocí BC – jakožto živého dokumentu, který musí být pravidelně revidován a aktualizován a především musí být stále navázán na strategické a obchodní cíle společnosti. V použitém modelu malé a střední organizace přijímá skoro každý pracovník více rolí a při pracovním přetížení občas není čas na administrativní dohledávání určitých údajů. Je pozoruhodné, že co do velikosti organizace, vyspělost v rámci výše uvedených procesů Řízení investic či Řízení projektu, není v běžné praxi veliká. Jak ukazuje průzkum stavu zavádění IT Governance (ITG, 2009), méně jak 10% společností dané velikosti integruje a implementuje podobné standardizované procesy. Otázkou zůstává, proč tomu tak je. Prvním možným bodem může být nedostatečná finanční i časová disponibilita zdrojů v rámci malých a středních podniků. Vzhledem k náročnosti implementace lze předpokládat větší časové náklady u klíčových zaměstnanců do těchto druhů interních projektů. A vzhledem k tomu, že tyto interní projekty negenerují okamžitý finanční zisk, můžou být v rámci malých firem utlumovány právě na úkor projektů generující tržby. Další příčinou nevyzrálosti procesů je možné spatřovat v obtížnosti orientace v předložených metodikách, které mohou být pro management společnosti nečitelné a zmatečné. Na druhou stranu organizace, zavádějící podobné postupy nebo interní kontroly (na základě procesů COBIT, Risk IT a Val IT), vykazují intenzivní uvědomělost potřebu řídit tyto procesy a dále je zlepšovat a celkově harmonizovat IT koncepci s obchodními cíli. Tím je predikován jejich obchodní růst a tvorba přidané hodnoty. Seznam použitých zdrojů PMI (2008). A guide to the project management body of knowledge: (PMBOK guide). Newton Square: Project Management Institute. ITG (2003). Board briefing on IT governance. Rolling Meadows: IT Governance Institute. ITG (2009). Building the Business Case for COBIT and VALIT: Executive Briefing. Rolling Meadows: IT Governance Institute. ITG (2008). Enterprise value: governance of IT investments: the Val IT framework 2.0. Rolling Meadows: IT Governance Institute. ITG (2007). IT assurance guide: using CobiT. Rolling Meadows: IT Governance Institute. Kloppenborg, T. J., Manolis, C., Tesch, D. (2009). Successful Project Sponsor Behaviors During Project Initiation: An Empirical Investigation. Journal of Managerial Issues, 21(1), 140-159. Acta Informatica Pragensia 43 Kraft, T. (2009). Business Process Alignment for Successful IT Project Management A Systematic and Holistic IT Project Management Approach for Commercial Software with Case Studies. Saarbrücken: VDM Verlag Dr. Müller. Král, M. (2012). Odhadování pracnosti IT projektů. Acta Informatica Pragensia, 1(1), 32-40. Retrieved from http://aip.vse.cz/index.php/aip/article/view/16/11 TSO (2009). Managing successful projects with PRINCE2. London: TSO. Svatá, V. (2011). Audit informačního systému. Praha: Professional Publishing. ISACA (2009). The risk IT framework principles, process details, management guidelines, maturity models. Rolling Meadows: ISACA. ITG (2010). The Risk IT Framework. Rolling Meadows: IT Governance Institute. Acta Informatica Pragensia 3(1), 2014, 44–56, DOI: 10.18267/j.aip.35 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers CADAQUES: Metodika pro komplexní řízení kvality dat a informací CADAQUES: The Methodology for Complex Data and Information Management David Pejčoch1 1 Katedra informačního a znalostního inženýrství, Fakulta informatiky a statistiky, Vysoká škola ekonomická v Praze nám. W. Churchilla 4, 130 67 Praha 3 [email protected] Abstrakt: Dnešní doba je charakteristická stále se zvětšujícím množstvím pořizovaných a zpracovávaných dat. Cílem tohoto článku je poukázat na různorodost současně používaných datových zdrojů, ukázat jejich specifika z pohledu řízení kvality a představit vlastní metodiku, která umožňuje řízení kvality dat a informací napříč těmito zdroji. Hlavní součástí této metodiky je sada základních principů a činností, které je možné univerzálně aplikovat. Jedním z klíčových doporučení této metodiky je zaměření se na relativně malou sadu vlastností dat, kterou lze efektivně řídit. Součástí metodiky je rovněž model zralosti datového zdroje, který slouží pro zhodnocení míry rizika spojené s použitím konkrétního zdroje. Klíčová slova: Datová kvalita, Big Data, zdroje dat, Data Governance, Linked Data, CADAQUES. Abstract: The present time is characterized by an ever-increasing amount of acquired and processed data. The aim of this article is to highlight the diversity of currently used data sources, to show their specifics in terms of quality control and introduce own methodology that allows data and information quality management across these sources. The main component of this methodology is a set of basic principles and actions that can be universally applied. One of the key recommendations of this methodology is to focus on a relatively small set of data characteristics, which is relatively easy to manage. Part of the methodology is also a Data Source Maturity Model which could be used to assess the risk associated with the use of a particular data source. Keywords: Data Quality, Big Data, Data sources, Data Governance, Linked Data, CADAQUES. Acta Informatica Pragensia 45 1 Úvod Žijeme ve světě produkujícím enormní, stále se zvětšující množství dat. V současné situaci je diskutabilní, zda jsme vůbec toto množství dat schopni zpracovat a zda toto zpracování přinese adekvátní dodatečnou hodnotu. Zdomácněly již pojmy jako je řízení kvality dat a informací či Data Governance. S rozrůstajícím se univerzem dat se objevily též různé klony těchto pojmů jako je např. Linked Data Quality (řešící kvalitu původních dat převedených do Resource Description Framework formátu a vzájemně prolinkovaných), Metadata Quality (reflektující specifika řízení kvality metadat, tedy velmi zjednodušeně dat o datech) a konečně Big Data Quality, soustředící svou pozornost na data, která již není možné (nebo není efektivní) zpracovávat pomocí konvenčních RDBMS (Relation DataBase Management System) prostředků. Nepouštějme se nyní do polemik, do jaké míry jsou tyto pojmy tzv. buzzword. Produkce buzzwordů je fenoménem, se kterým v dnešní době stěží něco svedeme. V každém případě bychom zde mohli identifikovat celou řadu dalších takových pojmů, relevantních pro jiné specifické formy dat, o nichž tu zatím nepadlo ani slovo (např. Multimedia Data Quality, Stream Data Quality, Geospatial Data Quality, apod.). Odhlédněme též od nedokonalosti definice velkých dat ve smyslu takových dat, která činí potíže zpracovat pomocí „konvenčních“ prostředků. Pojem „konvenční“ prostředek je v tomto kontextu velice relativní, neboť v online byznysu začínají být konvenčními již i takové technologické prostředky, na kterých současná Big Data fungují. Podstatným problémem je snaha roztříštit celou oblast řízení kvality dat a informací, potažmo Data Governance, do zvláštních disciplín. Dle mého názoru je nutné uvažovat jednu komplexní sadu pravidel, politik a principů univerzální pro všechny datové zdroje, se kterými příslušný subjekt přichází do styku. Tyto principy by měly být jednoduché, srozumitelné a snadno implementovatelné. Cílem článku je poukázat na různorodost současně používaných datových zdrojů a představit konkrétní metodiku, která umožňuje řízení kvality dat a informací napříč těmito zdroji. Tato nová metodika je rovněž autorovým přínosem k dané problematice. 2 2.1 Směrem k jednotnému konceptu Zdroje dat Před vlastním popisem jednotlivých zdrojů dat považuji za vhodné definovat pojem univerzum dat. Teorie množin definuje univerzum (též základní množinu) jako množinu všech prvků, které jsou relevantní v rámci daného kontextu (domény, problému). V kontextu dat chápu univerzum jako množinu všech datových zdrojů (na různé úrovni granularity), se kterými konkrétní subjekt přichází do styku. Na univerzum dat, která jsou v dnešní době zpracovávaná, lze pohlížet z několika úhlů pohledu. Podle míry jejich strukturovanosti se jedná o data strukturovaná, semi-strukturovaná a nestrukturovaná. Z pohledu jejich původu je lze dělit na data interní a externí. Mezi interní data lze zařadit např. data z OLTP (Online Transaction Processing) systémů, datových skladů, datových tržišť, OLAP (Online Analytical Processing) kostek, různé systémové číselníky a seznamy hodnot, systémové logy, archivovanou elektronickou poštu, znalostní báze, různé registry metadat a v neposlední řadě data produkovaná různými senzory. Jako příklad externích dat lze uvést data získaná ze sociálních sítí, cloud řešení (např. Salesforce), data vyměňovaná a sdílená v rámci B2B (Business To Business) vztahů, veřejně dostupné registry a číselníky. Z pohledu konkrétní použité technologie a formátu se jedná o relační databáze, celou řadu tzv. NoSQL databází (sloupcové, grafové či dokumentové databáze), různé klony XML 46 Pejčoch (eXtensible Markup Language), textové soubory s oddělovačem či pevnou šířkou, audio, video soubory, obrázky s různou mírou komprese a barevné hloubky, apod. Specifickou formou jsou data mající podobu toku (streamu). Z pohledu fyzického uložení dat lze rozlišovat data uložená v rámci souborového systému, dedikovaného úložiště či v paměti. Z pohledu dostupnosti lze rozlišovat mezi online daty (např. Data as a Service) či offline daty. Na základě popsaných faktů lze současné univerzum zpracovávaných dat označit bez nadsázky za velmi rozmanité. Nyní přikročím k definici základních pojmů, které souvisejí s řízením kvality takto definovaného univerza dat. 2.2 Kvalita dat a informací, Data Governance Podle (SDM, 2005) je datová kvalita „vnímání nebo posouzení vhodnosti dat sloužit svému účelu v daném kontextu“. Za aspekty datové kvality tento zdroj považuje správnost, úplnost, aktuálnost, relevantnost, konzistentnost napříč datovými zdroji, důvěryhodnost, přiměřenou prezentaci a dostupnost. Podobnou definici poskytuje (Redman, 2001), který za data mající vysokou kvalitu považuje taková, jež „odpovídají jejich zamýšlenému užití v operativních činnostech, rozhodování a plánování“. Přičemž data označuje za odpovídající svému užití, pokud jsou „prosta defektů a uchovávají si požadované vlastnosti“. Tato definice vychází z přístupu M. Jurana, publikovaného v (Juran, Godfrey, 2010). S adekvátnosti dat jejich zamýšlenému užití se můžeme v souvislosti s datovou kvalitou setkat též v (Strong, Lee, Wang, 1997; Wang, Strong, Guarascio, 1996; Olson, 2003). Dle spíše procesně orientované definice, publikované v (Hyland, Elliott, 2008), “datová kvalita nastavuje množinu opakovatelných procesů pro monitoring dat a zlepšování jejich přesnosti, úplnosti, aktuálnosti a relevantnosti.“ Správná, aktuální, relevantní, úplná, srozumitelná a důvěryhodná jsou kvalitní data rovněž podle (Olson, 2003). Jak je patrné, datová kvalita je často definována jako míra určitých požadovaných vlastností. Téma vlastností dat samotných je zpracováno řadou autorů. Král a Žemlička (2006) rozlišují vlastnosti objektivní a subjektivní z pohledu jejich měřitelnosti. Za objektivní považují takové (zpravidla numerické) vlastnosti, které lze vždy znovu vypočítat z dat, kterých se týkají. Nejobsáhlejší přehled alternativních klasifikací (přesto však ne úplný) poskytuje (Zaveri et al., 2012). Ve své práci se odkazuje na celkem 21 zdrojů různých autorů. Výsledkem je klasifikace celkem 109 vlastností do 6 dimenzí. Řízení takto enormního množství vlastností dat považuji za téměř nemožné. Jako podpůrný argument pro toto tvrzení mohu použít analogii z oblasti řízení rizik, kde je obecně považována hranice několika desítek rizik za únosnou míru, kterou je firma ještě schopna efektivně uřídit – viz např. (Doucek et al., 2011). Na základě (Batini, Scannapieco, 2006; Král, Žemlička, 2006; Lee et al., 2006; McGilvray, 2008; Pipino, Lee, Wang, 2002; Redman, 2001; Voříšek et al., 2008; Zaveri et al., 2012) a vlastních zkušeností z oblasti pojišťovnictví, bankovnictví a online byznysu jsem proto sestavil redukovanou sadu vlastností, které považují za klíčové. Tato klasifikace uvažuje pět dimenzí vlastností: (1) endogenní, (2) časovou, (3) kontextuální, (4) užití a (5) ekonomickou. Zatímco s prvními čtyřmi dimenzemi se můžeme setkat napříč citovanými zdroji, pátá je zmiňována pouze v (Voříšek et al., 2008). Nicméně bez měření nákladové stránky vlastnictví dat si lze řízení dat jen těžko představit. Její absenci lze proto přičíst spíše neúplnosti ostatních přístupů nebo jejich přílišnému zaměření na konkrétní technická řešení kalkulace vlastností. V rámci endogenní dimenze uvažuji Důvěryhodnost (míru všeobecné akceptovatelnosti dat jejich uživateli), Unikátnost (míru výskytu nechtěných duplicit), Syntaktickou správnost (míru, v níž hodnoty atributu odpovídají přípustné syntaxi), Sémantickou správnost (míru, v níž hodnoty atributu odpovídají oboru přípustných hodnot) a Přesnost (míru, v níž data přesně popisují konkrétní entitu). Acta Informatica Pragensia 47 V rámci časové dimenze uvažuji především Aktuálnost dat a jejich Volatilitu (proměnlivost v reálném prostředí). Jak jsem ukázal v (Pejčoch, 2011), ostatní vlastnosti této dimenze jsou buď z těchto vlastností odvozené (Včasnost), anebo představují naopak jejich vstup (Časová synchronizace). V rámci kontextuální dimenze rozlišuji Interní a Externí konzistentnost, ve smyslu konzistentnosti hodnot atributů v rámci jednoho datového zdroje, vs. konzistentnosti napříč datovými zdroji. Dále míru Úplnosti (podíl nechtěných chybějících hodnot) a Pokrytí všech hodnot, které se pro danou entitu vyskytují v reálném světě (např. všech čísel mobilního telefonu daného subjektu). V rámci dimenze užití uvažuji Dostupnost dat uživatelům, Srozumitelnost (ve smyslu formátu), Interoperabilitu (míru existence metadat) a Bezpečnost přístupu. V rámci ekonomické dimenze uvažuji náklady na pořízení, aktualizaci, uložení, sdílení, archivaci a ochranu dat. Zatímco (English, 1999) hovoří striktně o kvalitě informací, jíní autoři, jako např. (Redman, 2001), zmiňují kvalitu dat. Je skutečně nutné striktně rozlišovat tyto dva pojmy? Data lze definovat jako základní diskrétní stavební prvky informací, reprezentované podle různé míry strukturovanosti fakty uloženými v datových atributech, textových dokumentech, zvukových záznamech či formou obrazu/videozáznamů. Informacemi bychom potom rozuměli data zasazená do kontextu a zřetězená ve vyšší smysluplné celky, mající určitý význam. Dává smysl uvažovat kvalitu dat, když pro koncového uživatele má význam kvalita informace, hovoříme o životním cyklu informace a název celého oboru je Informatika? Dle mého názoru je vhodné uvažovat oba pojmy současně. Mnoho vlastností uváděných jako vlastnost dat (např. srozumitelnost) jsou spíše vlastnosti informace, tedy dat vztažených v kontextu a prezentovaných např. formou reportu. Nicméně např. správnost informace do značné míry závisí na správnosti elementárních datových prvků, z nichž je složena. Např. informace, že pan Novák se narodil 12. října 1977, může být správná pouze za předpokladu, že je správně vyplněno příjmení příslušné osoby a datum narození. Ladley (2012) chápe Data Governance jako „organizaci a implementaci politik, procedur, struktur, rolí a odpovědností, které vymezují a prosazují pravidla účasti, rozhodovací práva a odpovědnosti pro efektivní řízení informačních aktiv“. Zdůrazňuje oddělení Governance od řízení informací ve smyslu kontroly, monitoringu a dohlížení na aplikaci standardů a pravidel definovaných v rámci Governance. Výsledkem Data Governance iniciativy jsou podle Ladley (2012) principy (ve smyslu základních norem, doktrín a předpokladů) a politiky (ve smyslu pravidel nebo kodexu jednání). Konkrétní principy mimo jiné zmiňují (1) komplexní řízení veškerých dat a informačního obsahu organizace jako korporátních aktiv, (2) nutnost specifikace standardů pro všechny datové struktury / informační obsah a (3) řízení rizik, nabádající k nutné obezřetnosti (due dilligence). Co je podstatné, Ladley (2012) uvažuje při zavádění principů Data Governance postupnou evoluci namísto masivní změny. Dle mého názoru podloženého dosavadní praxí jsou právě implementace založené na masivní změně jedním z důvodů, proč je datová kvalita v současné době chápána převážně jako dodatečně vynaložené náklady, nikoliv z pohledu budoucí hodnoty. Řady neúspěšných nebo dlouho trvajících projektů daly vzniknout mýtu, že Data Governance je pouze pro velké firmy, protože ty malé na to nemají potřebné prostředky. Tato představa je však mylná. V souvislosti s Data Governance je často zmiňován tzv. Data Stewardship, založený na více či méně formálně vymezené roli správce dat z příslušné předmětné oblasti (domény) nebo konkrétního datového zdroje. 48 2.3 Pejčoch Specifika jednotlivých typů dat z pohledu řízení kvality Pro řízení kvality dat v rámci takových zdrojů, které mají charakter strukturované tabulky, textového souboru s oddělovačem nebo pevnou šířkou jednotlivých sloupců, existuje dostatečná opora jak v odborné literatuře, tak i ve funkcionalitě nástrojů dostupných na trhu. Řízení kvality těchto zdrojů je založeno na řízení sady jejich vlastností, uvedených v části 2.2. Jak je tomu však u méně obvyklých typů dat? Co je činí natolik výjimečnými, že si v některých případech zasloužily své vlastní vývojové větve v genezi datové kvality? Metadata mohou být uložena buď separátně od vlastního datového zdroje (např. u Linked Data s použitím Protocol of Web Description Resources nebo Gleaning Resource Description for Dialects of Language), anebo přímo obsažena ve zdroji, který popisují. Příkladem druhého uvedeného případu mohou být obrázky či video, pro které jsou podle Metadata Working Group (2010) typické standardy XMP (Extensible Metadata Platform), EXIF (Exchengable Image File Format) a IPTC Information Interchange Model, jež ukládají metadata přímo jako součást souborů. Bez ohledu na formu uložení lze v případě metadat zkoumat jejich úplnost, správnost, konzistentnost, srozumitelnost a stáří, stejně jako je tomu u „klasických“ dat uložených v tabulkách relačních databází či souborech o různé míře strukturovanosti. I v tomto případě nás bude zajímat původ těchto dat (a z ní vyplývající důvěryhodnost). Specifika jednotlivých typů zdrojů lze tudíž z tohoto podhledu uvažovat pouze na bázi aplikace konkrétního technologického postupu pro extrakci metadat a jejich analýzu. V případě sekundárních (tedy nepůvodních), resp. terciárních dat (chápejme jako data odvozená ze sekundárních dat), se můžeme setkat s dalšími specifickými rysy. Kvalita těchto zdrojů je zatížená kvalitou zdrojů původních a kvalitou transformací, které jsou na původní data aplikovány. Příkladem takových dat jsou již zmiňovaná Linked Data a Big Data. V případě Linked Data je nutné čelit problémům spojeným s nedostatečnou úrovní metadat původních zdrojů (včetně těch popisujících aktuální úroveň kvality těchto zdrojů), chybami vzniklými převodem původních datových zdrojů do RDF (Resource Description Framework) formátu a automatickým generováním vazeb mezi RDF trojicemi. V případě Big Data se navíc setkáváme s problémy spojenými s integrací zdrojů, které mají často různou míru strukturovanosti. MediaBistro (2010) uvádí v souvislosti s Linked Data některé vlastnosti, jež nejsou zpravidla zmiňovány v souvislosti s „klasickými“ daty. Např. ty, které jsou spojené se syntaxí zápisu konkrétního formátu a mírou údržby. Syntaxi zápisu lze dle mého názoru chápat jednak ve smyslu již definované syntaktické správnosti a jednak ve smyslu srozumitelnosti formátu. Míru údržby chápu jako kombinaci aktuálnosti zdroje a jeho interoperability (tj. míry dostupné dokumentace / metadat). Neshledávám proto důvod tuto vlastnost explicitně vyčleňovat. V případě takových vlastností dat, které jsou zaměřené ryze na konkrétní technologickou realizaci (např. granularita modelování), je diskutabilní, zda se jedná o skutečné vlastnosti dat, anebo faktory mající na tyto vlastnosti vliv (tedy příčiny nekvalitních dat). Obsah pojmu Big Data Quality / Governance je do určité míry zastřen tajemstvím. Soares (2012) chápe Big Data Governance jako součást širšího konceptu globálního Governance informací. Pozornost věnuje jak proaktivnímu řešení datové kvality na úrovni zdrojů velkých dat, tak i prostředkům pro její ex-post řešení na úrovni samotného Hadoopu. Výklad pojmu Big Data Quality však může být i širší. Informace extrahované pomocí Hadoop mohou v praxi sloužit pro validaci (např. odhadované pohlaví klienta v případě online byznysu) nebo obohacení ostatních datových zdrojů (např. o identifikované vztahy na základě analýzy nestrukturovaných dat ze sociálních sítí). Případně je možné využít výpočetní síly samotného Acta Informatica Pragensia 49 Hadoopu pro realizaci některých časově náročných úloh typických pro řízení datové kvality, jako je deduplikace (viz např. existující řešení Dedoop). V každém případě se u velkých dat opět setkáváme s podobnou sadou vlastností jako u dat „klasických“ (správnost, konzistentnost, aktuálnost, úplnost, …). Obdobně jako u Linked Data je možné identifikovat některé vlastnosti specifické pro dané technologické řešení (např. odolnost architektury řešení vůči výpadkům jednotlivých komponent clusteru, na jehož aplikaci jsou velká data založena). Zde je však snad ještě mnohem více patrné, že se spíše jedná o příčiny nekvalitních dat, než o samotné vlastnosti dat. Obecně tedy lze říci, že specifika typů dat, které si v minulosti vysloužily svou vlastní vývojovou větev v rámci řízení kvality, spočívají spíše v konkrétní použité technologii a okolnostech, zda se jedná o data původní či odvozená. Jak již naznačuje Soares, (2012), je vhodné uvažovat globální úroveň Governance. Já tuto globální úroveň chápu jako řízení a správu všech datových zdrojů podle jednotné sady politik a pravidel napříč univerzem. 3 Metodika CADAQUES pro komplexní řízení kvality dat a informací Příkladem návodu pro komplexní řízení kvality dat a informací je vlastní navržená metodika CADAQUES (Complex Approach to Data and Information Quality Management within Enterprise Systems). Skládá se s následujících stavebních prvků: (1) základních principů, (2) redukované sady vlastností dat, kterou je vhodné řídit napříč všemi typy datových zdrojů, (3) modelu hodnocení zralosti datového zdroje, (4) základních činností, realizovaných v rámci různých úrovní řízení kvality dat a informací napříč všemi typy datových zdrojů, (5) simulačního modelu pro měření dopadu vlastností dat do metrik výkonnosti IT / podniku a (6) šablon dokumentů. Většina výstupů je pro registrované uživatele dostupná na autorsky vyvíjeném portálu http://www.dataquality.cz. 3.1 Základní principy metodiky CADAQUES Metodika se zaměřuje na audit a řízení kvality komplexního univerza dat. Reflektuje heterogenní charakter současných datových a informačních zdrojů. Doporučuje jednotný koncept řízení kvality napříč všemi datovými zdroji. Vychází přitom z přesvědčení, že jen tak lze efektivně vyvážit přínosy a rizika spojená s užitím dat. V případě sekundárních a terciárních datových zdrojů preferuje řízení kvality na úrovni původních zdrojů. Považuje za efektivnější vyřešení prapůvodní příčiny nekvalitních dat před opakovanou retrospektivní nápravou již vzniklých defektů na úrovni zpracování dat. Metodika klade důraz na prolinkování zaváděných principů Data Governance s existujícími postupy pro implementaci principů IT Governance, jmenovitě COBIT (Control Objectives for Information and Related Technology). Data Governance chápe pouze jako součást IT Governance. V této souvislosti doporučuje rovněž realizovat audit kvality dat v kontextu komplexního auditu informačního systému, s využitím postupů, které jsou v souladu s metodikou použitou pro implementaci IT Governance. Cílem je zamezit zmatkům plynoucím z koexistence více různých (často složitých) metodik. Konkrétní postup, jakým realizovat audit kvality dat v souladu s návodem IT Assurance Guide: Using COBIT jsem teoreticky popsal a kriticky zhodnotil v (Pejčoch, 2012) a jeho praktickou realizaci demonstroval na příkladu z oblasti pojišťovnictví v [22]. Metodika reflektuje skutečnost, že některé datové zdroje nejsou pod přímou kontrolou jejich konzumentů. Doporučuje udržovat informaci o míře kontroly přístupnou uživatelům dat a zohlednit ji při definici očekávané míry vlastností příslušných atributů. Doporučuje též 50 Pejčoch zhodnotit míru rizika spojenou s použitím takových datových zdrojů. Datové zdroje, s jejichž použitím je spojena příliš vysoká míra rizika, doporučuje nepoužívat. Jako podpůrný prostředek pro posouzení míry rizika metodika poskytuje model zralosti datového zdroje. Metodika doporučuje dodržování principu Data Lineage (rodokmenu dat), tedy sledování původu dat, způsobu pořízení, stáří dat, frekvenci aktualizace a historii všech provedených transformací. Dodržování tohoto principu usnadní dohledávání původních příčin vzniku defektů v datech. S ohledem na stále se zvyšující množství zpracovávaných dat metodika doporučuje důsledně řídit životní cyklus dat/informací. Pokud jsou nějaká data nepotřebná či duplicitní, je třeba je archivovat nebo smazat. Důvodem jsou náklady na správu, uložení, dostupnost a chaos. V tomto bodě se opírám o vlastní zkušenosti z oblasti online byznysu, v rámci něhož jsou běžným jevem situace, kdy i samotná strukturovaná data uložená v datových skladech nabývají velikosti desítek PB (petabajt, 1015 bajtů). Takové objemy dat přerůstají možnosti běžných RDBMS a zajištění dostupnosti dat je zejména u velkých subjektů spojeno se značnými náklady. Metodika klade důraz na využití dodatečných znalostí při řízení kvality dat a informací. Tyto znalosti doporučuje spravovat ve znalostní bázi. Konkrétní znalosti spojené s řízením kvality dat mohou mít např. podobu schémat použitých pro standardizaci hodnot, masek pro validaci syntaktické správnosti či validačních byznys pravidel. Metodika doporučuje jejich centrální uložení a správu. Cílem je efektivní opakované využití již existujících znalostí, jednotně řízená kontinuita zvyšování kvality těchto znalostí a jejich soulad s požadavky regulací příslušeného odvětví (např. Solvency II/III v oblasti pojišťovnictví nebo Basel II/III v oblasti bankovnictví). Metodika doporučuje použití kanonického (obecného) datového modelu při budování znalostní báze orientované na řízení kvality dat a informací (QKB). Pojem Kanonický datový model (též Společný datový model, CDM) pochází z oblasti datové integrace, kde jej např. (Štumpf, Džmuráň, 2008) zmiňuje jako model nezávislý na konkrétní aplikaci. Howard (2008) hovoří o „datovém modelu, který překlenuje podnikové aplikace a různé datové zdroje“. Chappell (2004) uvažuje Kanonický datový model za soubor kanonických XML formátů jako prostředek pro vyjádření dat putujících skrze podnik napříč architekturou tvořící ESB (Enterprise Service Bus). Existuje řada dostupných kanonických modelů pro různé vertikály. Jako příklad lze zmínit ACORD (Association for Cooperative Operations Research and Development) pro oblast pojišťovnictví či SID pro oblast telekomunikací. Za hlavní argument použití kanonického datového modelu jako základu znalostní báze považuji usnadnění její integrace do stávajícího ESB, založeného na kanonickém modelu, a snadné sdílení (a rozvoj) znalostí obsažených v QKB ve vztazích B2B (Business To Business) a B2G (Business To Governance). Metodika doporučuje udržování takové úrovně vlastností dat a informací, která vede k optimálnímu dopadu do metrik výkonnosti IT a podniku při současném efektivním využití podnikových zdrojů. Pokud reálné použití některých atributů nevyžaduje vysokou úroveň některých měřených vlastností nebo je tato úroveň spojena s příliš vysokými náklady, metodika doporučuje slevit z požadavků na tyto vlastnosti. Pro měření dopadu do metrik výkonnosti používá kauzální simulační model, který jsem navrhl a popsal v (Pejčoch, 2011). Tento model je založen na vazbách mezi jednotlivými atributy, jejich užitím, naměřenými vlastnostmi a důsledky úrovně těchto vlastností. Součástí publikovaného článku byl rovněž praktický příklad demonstrující použití tohoto modelu v oblasti pojišťovnictví. Tento model je univerzálně aplikovatelný napříč univerzem dat. Acta Informatica Pragensia 51 Metodika klade důraz na multidimenzionální přístup, charakterizovaný různými pohledy na vlastnosti dat a informací (stávající / potenciální / optimální úroveň), uvažováním současného i potenciálního užití dat a informací a uvažováním různých kategorií dopadu nekvalitních dat a informací. 3.2 Základní činnosti podle metodiky CADAQUES Metodika CADAQUES předpokládá, že základní činnosti realizované v rámci řízení datové kvality a Data Governance lze členit podle tří úrovní řízení (na strategickou, taktickou a operativní). V rámci strategické úrovně řízení probíhá definice základních principů a politik Data Governance. Na taktické úrovni probíhá přiřazování odpovědnosti za jednotlivé datové zdroje a rozšiřování stávajících rolí o tyto odpovědnosti. Dále sem patří návrh a rozvoj jednotlivých částí QKB a navazujících znalostí, jednorázové audity kvality dat a informací. V neposlední řadě je na taktické úrovni realizována sada typických činností, jako je standardizace, unifikace, porovnávání a slučování, doplňování chybějících pozorování a návrh validačních pravidel a kontrol. Tyto typické činnosti jsem identifikoval na základě komparativní analýzy funkcionality nástrojů pro podporu řízení kvality, zařazených podle Talend (2013) v roce 2013 do Gartner Magic Quadrants pro oblast Data Quality (SAS Data Flux, Talend Open Studio MDM a Ataccama), vybraných nástrojů používaných pro přípravu dat v rámci procesu získávání znalostí z databází (SAS/BASE, SAS Enterprise Miner, Rapid Miner), specifických nástrojů pro řešení problematiky kvality dat v rámci Big Data (Pig, Hive, Impala, Talend Open Studio for Big Data, Dedoop) a analýzy níže citovaných zdrojů. Jednotlivé pojmy uvedené v souvislosti s typickými činnostmi budu definovat v následujících odstavcích. Konečně na operativní úrovni probíhá implementace jednotlivých mechanismů, kontrol a jejich kontinuální monitoring. Při členění základních činností se metodika CADAQUES opírá o model ITGPM popisovaný v (Voříšek J. et al., 2008), který rovněž uvažuje těžiště řízení dat jako jednoho z klíčových zdrojů informatiky na taktické úrovni řízení, a tzv. Hierarchii řízení dat publikovanou v (Dyché, Levy, 2006), řadící Data Governance na úroveň strategického řízení dat. Podstatou standardizace je syntaktické a sémantické sladění hodnot jednotlivých atributů. Za tímto účelem jsou aplikována zejména pravidla pro sjednocení velikosti písmen v jednotlivých tokenech a tzv. standardizační schémata, která převádějí různá synonyma, přezdívky, četné překlepy / chybné zápisy tokenů na jejich standardní zápis. Z pohledu vlastností dat se zaměřuje na Srozumitelnost dat. Představuje též hlavní vstup pro některé další navazující činnosti jako je porovnávání a slučování. S rolí standardizace se můžeme setkat napříč všemi typy dat v rámci univerza. V případě Linked Data a metadat roli standardizačních schémat plní slovníky (soubor termínů z určité oblasti) a ontologie (soubor termínů a jejich vztahů z určité oblasti), coby doporučené standardy. Za benefity použití standardizovaných metadat považuje (Cox, 2013) mimo jiné (1) úsporu času při hledání informace, (2) vyhledání přesnějších výsledků, (3) usnadnění client-server komunikace. V případě multimédií lze považovat za standardy např. doporučené rozlišení obrázku, použitá komprese, či kódování barev. Validace je zpravidla založena na aplikaci syntaktických masek, vytvořených pomocí regulárních výrazů, WHERE podmínek v rámci nějakého dotazovacího jazyka (zpravidla SQL), kontrolních součtů, na aplikaci IF THEN byznys pravidel, porovnávání skutečných hodnot s referenční bází / standardem či definovaným povoleným rozsahem hodnot. Z uvedených příkladů je zřejmá vazba na vlastnosti dat Syntaktická správnost, Sémantická správnost, Interní a Externí konzistentnost. V rámci jednotlivých typů zdrojů dat má validace pouze technologická specifika své realizace. V případě Linked Data např. pomocí jazyka 52 Pejčoch SPARQL (SPARQL Protocol and RDF Query Language). V případě obrázků, audia, videa je velkou část validačních procedur možné realizovat až po jejich převedení do strukturované podoby (např. obrázek znázorňující světle zelené auto na modrém pozadí převést na trojici atributů objekt = auto, barva objektu = světle zelená, barva pozadí = modrá). Porovnávání a slučování je realizováno zejména v souvislosti s deduplikací záznamů a rozhodováním, zda je nově vstupující záznam již obsažen v deduplikované bázi, či se jedná o záznam zcela nový. Souvisí tedy s vlastností Unikátnost dat. Pro tyto účely lze použít jednak řadu přístupů založených na kalkulaci měr podobnosti řetězců – viz (Chaudhuri et al., 2003), anebo porovnávacích kódů – viz (SAS Institute, 2008), jejichž nespornou výhodou je možnost jejich trvalého uložení v rámci atributů tabulek při současném zohlednění určité míry volatility, reflektující možné překlepy. Komplexní logika stojící v pozadí algoritmů generování porovnávacích kódů vychází z podrobné doménové znalosti o atributu (resp. atributech), na základě nichž je porovnávací kód vytvářen. Pro optimalizaci těchto metod jsou dle (Chaudhuri et al., 2003) používány fonetické algoritmy, kódující shodným způsobem stejně znějící hlásky, a tzv. blokovací strategie, využívající hodnot dodatečných atributů k redukci počtu porovnávaných záznamů. Jak ukazuje nástroj Dedoop, tato logika je zachována i v případě deduplikace nestrukturovaných dat v prostředí Hadoop. V případě multimediálních dat je deduplikace v triviálním případě založena na porovnávání bitů jednotlivých souborů (např. pomocí nástroje AntiTwin). Doplňování chybějících pozorování souvisí s vlastností dat Úplnost. V prvé řadě lze do této oblasti zařadit identifikaci mechanismu výskytu chybějících hodnot – viz např. (Marwala, 2009), reflektujícího náhodnost výskytu a možnosti odvození chybějících hodnot pomocí ostatních atributů. Na jeho základě je následně zvolena strategie doplnění. Na tuto oblast navazuje definice vlastních metod pro doplňování (imputaci) chybějících pozorování. Problematiku chybějících pozorování lze chápat též jako obohacování stávajících dat o dodatečné zdroje (např. externí číselníky, registry, geokoordináty) a znalosti (vztahy mezi entitami jako je např. identifikace domácnosti či obchodní spřízněnost jednotlivých subjektů). Logika imputace opět zůstává stejná napříč univerzem dat, pouze technologická realizace je odlišná. King, Kutyniok a Lim (2013) například popisují metodu Image Inpainting pro doplňování chybějících pixelů v rámci obrazů. Tato metoda je podobně jako mnoho metod pro imputaci v prostředí relačních databází popsaných v (Marwala, 2009) založená na ostatních hodnotách / atributech (v tomto případě pixelech obrazu). V rámci auditu kvality dat metodika CADAQUES uvažuje v prvé řadě realizaci tzv. technického profillingu Ten je založen na zjišťování základních popisných statistik jednotlivých datových atributů, identifikaci syntaktických vzorů, porovnávání reálných dat s metadaty a ověřování referenční integrity (tedy činností směřujících ke stanovení objektivních vlastností dat). Na základě doporučení formulovaných v (Lee et al., 2006) rozšiřuje tento kvantitativní audit o kvalitativní šetření cílené na hlavní uživatele dat. Tento retrospektivní audit kvality rovněž doporučuje doplnit o analýzu stávajících procesů s cílem identifikovat potenciální budoucí hrozby. Doporučuje se při tom zaměřit zejména na ty procesy, u nichž byly zjištěny závažné nedostatky v rámci technického profillingu nebo kvalitativního šetření. V kostce se tedy jedná o měření vlastností dat, testování současných navržených kontrol a identifikace potenciálních defektů. Tento přístup lze opět aplikovat napříč celým univerzem dat. 3.3 Model zralosti datového zdroje Jak bylo ukázáno na příkladu Linked Data, použití externích dat může s sebou přinášet rizika vyplývající z jejich původu a způsobu vytváření. Pro podporu rozhodování o použití konkrétního externího datového zdroje jsem proto jako součást metodiky CADAQUES Acta Informatica Pragensia 53 vyvinul model zralosti datového zdroje. Model vychází z mnou definované redukované sady vlastností dat popsané v části 2.2 tohoto článku. Důvodem je princip jednotného řízení těchto vlastností napříč celým univerzem, tedy i v rámci externích dat. Jednotlivým vlastnostem přiřazuje model konkrétní otázky, na které je dle mých zkušeností vhodné se zaměřit. Jedná se o vícekriteriální model, jehož jednotlivé části mohou mít pro různé zdroje a očekávané užití odlišné váhy. Výsledné rozhodnutí o použití je realizováno pomocí porovnání součtu vah s předem stanovenou kritickou hodnotou v rámci každé dimenze. V případě endogenní dimenze obsahuje model tyto otázky (doplněné o komentáře): Patří tento datový zdroj mezi obecně používané v rámci daného odvětví? Pokud je zdroj obecně používán, je značná pravděpodobnost, že je důvěryhodný. Je znám původ dat a je akceptovatelný pro předpokládané užití? Pokud je znám původ, lze odhadnout jeho důvěryhodnost. Je k dispozici popis prováděných kontrol? Pokud je znám, lze odhadnout důvěryhodnost tohoto zdroje a též publikovaných hodnot jednotlivých vlastností. Je k dispozici informace o garantované míře unikátních záznamů, sémantické správnosti, syntaktické správnosti a je postačující pro předpokládané užití? Je k dispozici informace o garantované míře přesnosti reprezentace reálných entit a je postačující pro předpokládané užití? V případě chybějící informace ji lze alespoň částečně aproximovat jako min (syntaktická správnost, sémantická správnost, aktuálnost, úplnost). V případě časové dimenze obsahuje tyto otázky: Je k dispozici informace o garantované míře aktuálnosti údajů a její úroveň je postačující pro předpokládané užití? Je k dispozici informace o frekvenci změn v reálném světě? Je k dispozici informace o frekvenci synchronizace jednotlivých částí zdroje publikovaných dat a je akceptovatelná z hlediska předpokládaného užití? V případě kontextuální dimenze obsahuje tyto otázky: Je k dispozici informace o garantované míře konzistentnosti jednotlivých atributů / elementů a její míra je akceptovatelná z hlediska předpokládaného užití? Je k dispozici informace o garantované míře konzistentnosti zdroje s ostatními zdroji a tato míra je akceptovatelná z hlediska předpokládaného užití? Je k dispozici informace o garantované míře úplnosti zdroje a očekávané míře pokrytí všech výskytů hodnot a tato míra je akceptovatelná z hlediska předpokládaného užití? V případě dimenze užití obsahuje tyto otázky: Jsou k dispozici informace o omezeních v dostupnosti datového zdroje a tato omezení jsou akceptovatelná z pohledu předpokládaného užití? Je na straně zdroje k dispozici kontaktní osoba byznys správce dat schopného podat dodatečné informace? Je k dispozici popis původního účelu, pro který byl zdroj vytvořen, a informace popisující omezení použitelnosti zdroje a jsou v souladu se záměrem použití dat? Je k dispozici byznys popis na úrovni jednotlivých atributů / elementů, je znám jejich význam a je postačující pro daný účel? 54 Pejčoch Je známa osoba technického správce zdroje, který by mohl podat dodatečné informace? Byl při vytváření datového zdroje použit kanonický datový model nebo některá ze známých ontologií? Je znám technický popis jednotlivých atributů a elementů (datové typy a délky, integritní omezení, jsou k dispozici příklady hodnot)? Je dostupný popis integrační logiky pro dávkovou integraci (informace o použitém oddělovači nebo použité pevné šířce, informace o použitém formátu, použité znakové sadě)? Je dostupný popis integrační logiky pro online integraci na úrovni jednotlivých služeb? Je v rámci přenosu dat použita úroveň zabezpečení adekvátní charakteru dat? V případě ekonomické dimenze obsahuje tyto otázky: 3.4 Jsou náklady na pořízení datového zdroje a jeho aktualizaci adekvátní přínosům datového zdroje z pohledu předpokládaného užití? Jsou náklady na integraci, uložení či archivaci v datovém úložišti a jejich zpřístupnění uživatelům adekvátní přínosům datového zdroje z pohledu předpokládaného užití? Jsou náklady na zajištění bezpečného přístupu a zabránění neautorizovanému přístupu k datům adekvátní přínosům datového zdroje z pohledu předpokládaného užití? Podpůrné nástroje metodiky CADAQUES Metodika v současné době obsahuje několik podpůrných nástrojů pro její implementaci: (1) kanonický datový model pro vertikálu pojišťovnictví, (2) šablonu auditorské zprávy, (3) šablonu matice pro definici užití jednotlivých atributů, (4) šablonu matice měřených vlastností, (5) dokument mapující kroky IT Assurance Road Map (součást návodu IT Assurance Guide: Using COBIT) na jednotlivé konvenční kroky auditu datové kvality popsané v (McGilvray, 2008; English, 1999; Lee et al., 2006). 4 Závěr Univerzum v současnosti zpracovávaných dat je rozmanité. Zahrnuje v sobě data o různé míře strukturovanosti, pro jejichž uchování jsou typické různé technologie. Přestože řízení kvality má v případě některých zástupců tohoto univerza určitá specifika, nestačí dle mého názoru tato skutečnost jako argument pro vznik samostatných disciplín (Linked Data Quality, Metadata Quality, Big Data Quality, apod.) a je vhodnější uvažovat jednotný koncept řízení kvality dat napříč těmito zdroji, zejména s ohledem na předpoklad, že současné univerzum dat není konečné. Dalším důvodem pro jednotný přístup jsou některé základní principy Data Governance, jako je řízení rizik spojených s používáním dat či princip komplexního řízení dat a informačního obsahu organizace. Dosud identifikovaná specifika se týkají buď konkrétní použité technologie (např. NoSQL a grafové databáze), formátu dat (např. audio, video, grafické soubory), anebo vyplývají ze skutečnosti, že se nejedná o zdroj původní (např. Linked Data). Metodika CADAQUES, představená v rámci tohoto článku, je příkladem přístupu uvažujícího komplexní řízení kvality dat a informací napříč celým univerzem. Hlavní součástí této metodiky je sada základních principů a činností, které je možné aplikovat na všechny datové zdroje. Řada z nich vychází z výše zmíněných principů Data Governance. Jedním z klíčových doporučení této metodiky je zaměření se na relativně malou sadu vlastností dat, kterou lze efektivně řídit. Součástí metodiky je rovněž model zralosti datového zdroje, který slouží pro zhodnocení míry rizika spojené s použitím konkrétního zdroje. Většina stavebních prvků této metodiky je dostupná registrovaným uživatelům na portálu http://www.dataquality.cz. Acta Informatica Pragensia 55 Seznam použitých zdrojů Batini, C., Scannapieco, M. (2006). Data Quality: Concepts, Methodologies and Techniques. Berlin: SpringerVerlag. Cox, L. (2013) Metadata: 96 Most Asked Questions - What You Need To Know. Emereo Publishing. Doucek, P., Novák, L., Nedomová L., Svatá, V. (2011). Řízení bezpečnosti informací. Příbram: Professional Publishing. Dyché, J., Levy, E. (2006). Customer data integration: Reaching a Single Version of the Truth. New Jersey: Wiley & Sons. English, L. P. (1999). Improving Data Warehouse and Business Information Quality: Methods for Reducing Costs and Increasing Profits. New Jersey: Wiley & Sons. Howard, P. (2008). The importance of a common data model. IT-Director.com. Retrieved from http://www.itdirector.com/technology/applications/content.php?cid=10292. Hyland, H., Elliott, L. (2008). No Data Left Behind: Federal Student Aid A Case History. Retrieved from http://www.dama-ncr.org/Library/2008-03-11NoDataLeftBehind.ppt. Chappell, D. A. (2004). Enterprise Service Bus. Sebastopol: O’Reilly. Chaudhuri, S., Ganjam, K., Ganti, V., Motwani, R. (2003). Robust and Efficient Fuzzy Match for Online Data Cleaning. In: SIGMOD 2003. CA: San Diego. Juran, J.M., Godfrey, A.B. (2010). Juran's Quality Handbook: The Complete Guide to Performance Excellence. New York: McGraw-Hill. King, E.J., Kutyniok, G., Lim, W. (2013). Image inpainting: Theoretical analysis and comparison of algorithms. In Wavelets and Sparsity XV: Proceedings of SPIE - The International Society for Optical Engineering 2013. Král, J., Žemlička, M. (2006) Kvalita dat a informací – základní omezení IT ve veřejné správě. In Pour, J., Voříšek, J (Eds.) Systems Integration 2006 (pp. 215-222). Prague: University of Economics. Ladley, J. (2012). Data Governance: How to design, deploy and sustain an effective Data Governance program. Waltham: Morgan Kaufmann. Lee, Y. W., Pipino, L. L., Funk, J. D., Wang, R. Y. (2006). Journey to Data Quality. MA: MIT Press. Marwala, T. (2009). Computational Intelligence for Missing Data Imputation, Estimation, and Management: Knowledge Optimization Techniques. Hershey: Information Science Reference. McGilvray, D. (2008). Executing Data Quality Projects: Ten Steps to Quality Data and Trusted Information. Burlington: Morgan Kaufmann. MediaBistro. (2010). Quality Indicators for Linked Data Datasets. Semanticweb.com. Retrieved from http://answers.semanticweb.com/questions/1072/quality-indicators-for-linked-data-datasets. Metadata Working Group. (2010). Guidelines for Handling http://www.metadataworkinggroup.org/pdf/mwg_guidance.pdf. Metadata. Retrieved from Olson, J. E. (2003). Data Quality: The Accuracy Dimension. Waltham: Morgan Kaufmann. Pejčoch, D. (2011). Vztah řízení dat k ostatním oblastem řízení informatiky. In Sborník prací účastníků vědeckého semináře doktorandského studia Fakulty informatiky a statistiky VŠE v Praze (pp. 3-13). Praha: Oeconomica. Pejčoch, D. (2012). Audit datové kvality podle IT Assurance Guide: Using COBIT - 3. díl. In Data Quality CZ. Retrieved from http://www.dataquality.cz/index.php?ID=5&ArtID=13&clanek=201203_DQA_IT_Assurance_Guide_3dil. Pipino, L., Lee, Y. W., Wang, R.Y. (2002). Data quality assessment. Communications of the ACM. 45(4), 211218. Redman, T. (2001). Data Quality: The Field Guide. Boston: Butterworth-Heinemann. SAS Institute. (2008). SAS Data Quality Server 9.2: Reference. Cary, NC: SAS Institute Inc. 56 Pejčoch SDM. (2005). Definice pojmu data quality. Techtarget.com http://searchdatamanagement.techtarget.com/definition/data-quality. Retrieved from Soares, S. (2012). Big Data Governance: An Emerging Imperative. Boise: McPress. Strong, D.M., Lee, Y.W., Wang, R.Y. (1997). Data quality in context. Communications of the ACM. 40(5), 103110. Štumpf, J., Džmuráň, M. (2008). Datová integrace prostřednictvím společného datového modelu. In Proceedings of the 16th International Conference on Systems Integration. Praha: CSSI. Talend. (2013). Analyst Report: Magic Quadrant for Data Quality Tools. Talend.com Retrieved from https://info.talend.com/dataqualitytools.html. Voříšek J. a kol. (2008). Principy a modely řízení podnikové informatiky. Praha: Oeconomica. Wang, R.Y., Strong, D.M., Guarascio, L.M. (1996). Beyond Accuracy: What data quality means to data consumers. Journal of Management Systems. 12(4), 5-34. Zaveri, A., Rula, A., Maurino, A. Pietrobon, R., Lehmann, J., Auer, S. (2012) Quality Assessment Methodologies for Linked Open Data. Semantic-web-journal.net. Retrieved from http://www.semanticweb-journal.net/content/quality-assessment-methodologies-linked-open-data. Acta Informatica Pragensia 3(1), 2014, 57–69, ISSN 1805-4951 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers Článek „A Project Team: a Team or Just a Group?“ byl na základě publikační etiky časopisu Acta Informatica Pragensia odstraněn, neboť bylo zjištěno, že se jedná o plagiát. On the basis of publication ethics of the Acta Informatica Pragensia journal, the article "A Project Team: a Team or Just a Group?" was removed because it is plagiarism. Acta Informatica Pragensia 3(1), 2014, 70–88, DOI: 10.18267/j.aip.36 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers Systémový charakter modelování možných trendů důsledků klimatických změn nástroji geografických informačních systémů System Nature of Modelling of Possible Trends in the Effects of Climate Change through the Technology of Geographic Information Systems Tools Veronika Vlčková1 1 Ústav dopravní telematiky / Ústav aplikované informatiky v dopravě, Fakulta dopravní, České vysoké učení technické Konviktská 20, 110 00 Praha 1 [email protected] Abstrakt: Základem příspěvku je aplikace tezí tzv. konstruktivní teorie systémů na model predikce pravděpodobného trendu důsledků globálních klimatických změn na vegetační kryt území ČR. Metodickým východiskem, podrobněji rozvedeném v první části příspěvku, je bývalý Integrovaný informační systém o území ISÚ a jeho subsystém Ekologická banka dat ISÚ. Samotný model predikce, jehož obdobně koncipovaná systémová charakteristika je předmětem druhé části, je realizován v prostředí technologie geografických informačních systémů. Základem systémových vazeb modelu je časoprostorová komparace klimatických podmínek a vlastností vegetačního krytu území. Model byl využit pro analýzu dat vhodnosti pěstování vybraných dřevin. Klíčová slova: konstruktivní teorie systémů, geografický informační systém, predikční model, systémový model území Abstract: The basis of the entire contribution is the application of constructive theory of systems theses on a model for the prediction of the probable trend of the consequences of global climate change on vegetation zones on the territory of the Czech Republic. This model is completely designed in the technology of geographic information systems. Methodological basis, which is in detail in the first part of the contribution, is former Integrated Information System about the Territory ISU and its subsystem Ecological Databank of ISU. The prediction model, its similarly framed system characteristics are in the second part of the contribution, is based on the relationships between climatic conditions and vegetation zones. The model has already been used for data analysis on the conditions of cultivation for a selected growing tree species for forestry studies. Currently the results of the application of the model will be published for the conditions of cultivation of selected agricultural commodities. Keywords: Constructive theory of systems, Geographical Information System, Predictive model, System model of the territory Acta Informatica Pragensia 71 Zacílení a souvislosti příspěvku Obsah článku je soustředěn na aplikaci pojmů konkrétní teorie na realizované objekty (viz dále text příspěvku) a je koncipován ve dvou hlavních částech, a to kap. 1., zmiňující aplikovanou teoretickou základnu, a kap. 2. obsahující uplatnění těchto pojmů na historické zdroje vývoje zmiňovaného modelu (mj. vzhledem k časovému rozložení a ryze české podstatě nejsou k dispozici příslušné zahraniční zdroje k další diskusi – v té době byla ČR prakticky jedním z vedoucích účastníků vývoje základů technologie GIS a zahraniční literatura se tehdy této problematice nevěnovala tak soustavně a soustředěně). V druhé části kap. 3. konkretizuje pojmy výchozí teorie na aplikaci predikčního modelu a kap. 4. se věnuje obdobné snaze ohledně okolí modelu. Kap. 5. pak zmiňuje další využitelné pojmy výchozí teorie. Iv této druhé části, věnované zmíněnému predikčnímu modelu, není k diskusi samotná konstrukce modelu či jeho odborná podstata (lesnická ekologie aj.), smyslem je uplatnění a osvětlení pojmů výchozího teoretického aparátu na reálný objekt – model predikce. Diskuse k vývoji modelu a jeho vlastnostem probíhá na příslušné odborné úrovni lesních a krajinných ekologů. Nakonec v kap. 6. je krátce uvedeno shrnutí poznatků z aplikace systémových pojmů a kap. 7. je soupisem použité literatury. Cílem příspěvku je především snahou propojit teze a pojmy výchozí teorie s konkrétní aplikací, a to mj. i v souvislosti s výukou oborových předmětů na FD ČVUT – systémové inženýrství a systémová strategie dopravy. 1 Úvodní předpoklady konstruktivní teorie systémů – komplexní prostředí modelu Základem vypracování celého příspěvku je aplikace tezí tzv. konstruktivní teorie systémů ve tvaru a myšlenkovém uspořádání podle původní studie Jaroslava Vlčka Systémové inženýrství (Vlček, 2002). Nástroje konstruktivní teorie systémů v jím rozvíjeném pojetí umožňují zefektivnit postup (jakékoliv) inženýrské práce, projektování, vedou k optimalizaci inženýrských činností a k úspěšnějšímu udržení smyslu a účelu řešení inženýrských úloh. Nicméně tento příspěvek se zabývá jejich aplikací, nikoliv vysvětlováním. Veškeré zde dále uváděné úvahy a komentáře řešení ovšem vycházejí právě z terminologie a úvah této studie. Pouze pro letmé upozornění na význam pojmů, užívaných dále v příspěvku, uvádím stručně alespoň rozvinutou definici obecného systému (Vlček, 2002) ve tvaru: / , / , , , , , , (1) kde A/F je množinou prvků (částí) systémového modelu s jejich funkcemi; R/P je množina vazeb mezi nimi a jejich parametrů; γ označuje množinu procesů genetického kódu, resp. druhového chování; δ znamená množinu procesů cílového chování; E je symbol etiky systému; M je mohutnost množina všech procesů v/na systému; I označuje identitu systému vůči jeho okolí; K charakterizuje kompetence systému (v dalších pojetích případně kapacitu systému). Samotným předmětem analýzy systémových charakteristik je model predikce pravděpodobného trendu důsledků globálních klimatických změn na vegetačních kryt území České republiky. Tento model (Kopecká, Buček, 1997) vychází z principu, že významné změny klimatických podmínek se projeví v určitém trendu změn vlastností vegetačního krytu území. Vegetační kryt území ČR je zde reprezentován speciální klasifikací vegetační stupňovitosti (Kopecká, Buček, Lacina, 1984). 72 Vlčková Model byl již využit v první řadě pro analýzu dat o podmínkách vhodnosti pěstování vybraných dřevin, a to smrku ztepilého a buku lesního. Stávající oblasti a míra jejich vhodnosti byly vytipovány právě na základě geobiocenologické klasifikace území ČR (Buček, Lacina, 1988). Ovšem aplikace modelu mohou být nejrůzněji zaměřené – v současnosti jsou postupně publikovány výsledky studií o podmínkách pěstování vybraných jednotlivých zemědělských komodit apod. (Vlčková, Buček, Machar, 2014) 2 Vlastnosti a podněty prostředí umožňujícího konstrukci systému – vstupní podněty okolí systému 2.1 Integrovaný informační systém o území ISÚ V 70. až 90. letech 20. století tehdejší TERPLAN, Státní ústav pro územní plánování, provozoval tzv. Integrovaný informační systém o území – ISÚ (dále již jen „ISÚ“), který v té době představoval jedinečné (a to i v celosvětovém měřítku) řešení správy (pořizování, ukládání, archivace, zpracování, zpřístupňování, poskytování atd.) územně orientovaných informací (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993). V době centrálních výpočetních systémů bez praktické možnosti grafického vstupu/výstupu, či jen ve velmi omezené míře, umožňoval automatizaci práce s prostorovými daty (informacemi, znalostmi) – i včetně modelování prostorově orientovaných jevů a vztahů mezi nimi – jak specialistům územního plánování, tak i dalších oborů. ISÚ byl koncipován jako mezioborový informační systém, založený především pro potřeby informační obsluhy územně plánovacích procesů na úrovni velkých územních celků, případně celé republiky. Provozován byl v centrálním výpočetním středisku na systému OS/IBM 375 toliko v numerické formě. Zpočátku ISÚ budoval oborově orientované registry sám s cílem převést prostorově orientovaná data na počítač. Podnětem těchto snah byl požadavek především oboru územního plánování, který metodicky propojoval údaje o území z nejrůznějších oborů, a spolupracoval s nejrůznějšími odbornými institucemi (ČHMÚ, Geofond, Silniční databanka i Český statistický úřad aj.). V letech těsně před listopadem 1989 již nastoupila jistá úroveň decentralizace zdrojů i uživatelů prostorových informací. Spolupracující odborné instituce začaly svoje registry a evidence spravovat samy a poskytovat je do databáze ISÚ. Souběžně došlo postupně i k rozšíření práce v grafickém prostředí. Nejvýznamnější okolnosti, které v té době ovlivnily tehdejší technické řešení ISÚ (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993), lze shrnout následovně: společenské změny, které zcela zásadně změnily způsoby aktualizace informačních systémů po obsahové stránce (zejména decentralizace dostupných datových zdrojů); hardwarová a s ní související i softwarová obměna (nástup technologií firem ESRI, Intergraph aj.); datový fond ISÚ, ač založen na jednotných a zdánlivě jednoduchých pravidlech, byl z pohledu informačních technologií hluboce diverzifikován ve všech myslitelných rozměrech datových bází; s postupným nárůstem technických parametrů osobních počítačů a pracovních stanic rostl podíl převodu původní „mainframové“ datové báze a jejích odvozenin do tohoto nového prostředí, to však tehdy – ke škodě věci – znamenalo velmi výrazné objemové i rychlostní omezení práce s prostorovými údaji vůči dosavadním možnostem sálových počítačů (to je ovšem dnes již zcela nesouměřitelné). ISÚ tak byl vzhledem ke své principiální různorodosti (obsahu, způsobu vyjádření a popisu jednotlivých územních jevů, elementární úrovně podrobnosti svého datového obsahu) veden Acta Informatica Pragensia 73 jako komplex jednotlivých tematických registrů, který byl každý reprezentován několika základními kmenovými soubory dat, propojené speciálními řídicími registry. Význam konceptu ISÚ a jeho efektivnost v kontextu tehdejších podmínek práce s výpočetní technikou a s prostorově orientovanými daty byl zhruba v polovině 90. let podpořen mj. i následníkem v podobě Městského informačního systému, organizovaného na principech ISÚ (ovšemže na podrobnější rozlišovací úrovni), který provozovalo hlavní město Praha ve svém Institutu městské informatiky. Vlastní architektura datové báze ISÚ – ve smyslu výchozí konstruktivní teorie systémů základní struktura systému s prvky a s jejich funkcemi, vazby mezi nimi se svými parametry – byla vázána důslednými pravidly (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993): dodržovat přísně a bezpodmínečně atomární tvar ukládaných dat – vstup do systému z jeho okolí; souborová organizace kmenového uložení originálních tematických dat (i vzhledem k různé časové platnosti, různé úrovni sledovaných územních prvků aj.) – dekompoziční nástroje systému; „kmenová“ data registrů, pracovní a odvozené soubory, archivní verze dat – prvky systému; důsledné kódování, legendy, číselníky, převodníky – vazby v systému; vnitřní hierarchie: metainformační registr, základní identifikační (řídící) soubory, tematické soubory podčleněné vzhledem k typu popisovaných územních prvků (agregace dat za základní sídelní jednotky nebo za katastrální území; data za objektové prvky – bodové, liniové, plošné), souřadnicový fond – kompetence, identita systému. Základ koncepce a realizace ISÚ – druhové chování systému – tak zahrnoval jednotlivé následující body (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993): informační podpora územně plánovacích činností; integrace, agregace, srovnatelnost různorodých územně orientovaných informací na společném základě soustavy jednotek prostorového členění ČR i souřadnicové lokalizace. Požadované cílové chování, tehdy očekávanou funkci celého systému lze shrnout jako (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993): poskytování informací o území a o jevech v něm; vlastní programové aplikace: data – informace – znalosti o území, modelování, tvorba odvozených = tranzitivních informací (znalosti: efekt ze sjednocení informací; tranzitivní informace: výsledek implikace IF – THEN); grafická prezentace informací, odvozená grafická informace („paralelní komunikace“ grafického vyjadřování kombinovaných skupin informací – kartogramy, kartodiagramy); pořizování a údržba speciálních dat: soubor demografických údajů, Ekologická banka dat ISÚ – EBD ISÚ, oficiální gesce za číselníky a zdrojové registry územních a sídelních jednotek či katastrálních území s jejich definičními body a souřadnicemi obrysů hranic; základní metodické principy použití územně orientovaných informací (tzn. atomární uložení, jednotná prostorová identifikace, časová platnost); zpracování mapových podkladů, metodická podpora a konzultace pro ostatní IS; 74 Vlčková zajištění zprostředkujícího článku: výměny informací mezi jednotlivými úrovněmi informačních systémů (národní, regionální, lokální). Vazby ISÚ na ostatní – informatické – okolí (spojené se systémovými pojmy mj. též identity a etiky systému) byly dány (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993): 2.2 jednak horizontálně v rovině hierarchicky odpovídajících oborových i jiných průřezových IS na stejné úrovni podrobnosti a územního rozsahu sledovaných údajů a obsluhovaných rozhodovacích procesů; jednak vertikálně ve smyslu rozlišování obsluhované úrovně podrobnosti územních jevů a používaných soustav popisovaných prvků území; posléze i ve třetím rozměru v souvislosti s vlastním rozvojem ISÚ v celém časovém období (časové verze registrů a periody jejich aktualizace). Ekologická banka dat ISÚ Samotná Ekologická banka dat ISÚ (dále jen „EBD ISÚ“) vznikla v rámci prací na informačním okruhu EKOPROGRAMu v letech 1981 – 1985 jako logická metastruktura ISÚ (základní systémová struktura tedy pracovala se strukturou celého ISÚ). Byla zaměřená na zabezpečování informací a jejich zpracování pro potřeby ekologie a hodnocení kvality životního prostředí. Její funkce (tedy upravené druhové i cílové chování) byla vymezena (Buček, Vlčková, 2011): předmětem obsluhy – cílovým chováním: oblast ekologických informací a údajů o životním prostředí; způsobem obsluhy – druhovým chováním: vybrané metodiky hodnocení stavu území vzhledem k určujícím veličinám ekologie a životního prostředí; definicí vnějších systémových vazeb – identitou či etikou: interakce s ostatními podobnými (komunikujícími) systémy. EBD ISÚ cíleně propojovala údaje z „běžných“ registrů ISÚ za účelem získání informací a znalostí o stavu životního prostředí a ekologické rovnováhy či stability na území ČR i podněcovala k zakládání nových speciálních registrů dat. Víceméně tak sloužila jako předchůdce později řešeného Jednotného informačního systému o životním prostředí JISŽP, zřízeného již s ohledem na dobu nově vzniklým Ministerstvem životního prostředí ČR a spravovaného tehdejším Českým ekologickým ústavem. Acta Informatica Pragensia 75 Obr. 1. Datová báze ISÚ a EBD ISÚ. Ekologická banka dat ISÚ, situační zpráva za rok 1987 – úkol č. 37 220 (Kopecká, 1987, s. 3). 2.3 Národní klimatický program ČR Se současným stavem této instituce se lze seznámit na internetové adrese http://www.chmi.cz/files/portal/docs/meteo/ok/nkp/hist.html, kde se uvádí: „Světový klimatický program byl ustaven v roce 1979. Národní klimatické programy začaly vznikat postupně z iniciativy meteorologických služeb jednotlivých zemí za podpory WMO. V Československu bylo několik pokusů ustavit NKP neúspěšných, poněvadž před rokem 1989 se nenašel žádný centrální orgán, který by byl ochoten program garantovat. V roce 1990 bylo zřízení NKP navrženo společně řediteli Českého a Slovenského hydrometeorologického ústavu Federálnímu výboru pro životní prostředí. FVŽP souhlasil se zřízením programu a schválil vyhlášení čs. účasti v NKP na 2. světové klimatické konferenci v Ženevě. … NKP byl v letech 1991–1992 financován z Programu péče o životní prostředí, a to cestou Českého hydrometeorologického ústavu. V listopadu 1992 bylo založeno sdružení právnických osob, jehož zakládajícími členy se stalo 12 organizací zabývajících se v ČR problematikou klimatického systému a jeho ochrany. Byly to ústavy Akademie věd České republiky, katedry vysokých škol a všechny profesionální meteorologické instituce.“ První variantou poskytnutých údajů o klimatu ČR pro model, jímž se dále zabývá tento příspěvek, byly výsledky scénářů klimatických změn, získané právě v rámci tohoto Národního klimatického programu ČR. Tyto scénáře vznikly jako dílčí výstup řešení úkolu „Posun 76 Vlčková lesních vegetačních stupňů v České republice s regionálním scénářem klimatické změny“ za rok 1993 (podrobněji dále v 4.1.1.). 3 3.1 Systémová koncepce modelu „Rich picture“ modelu – struktura zkoumaného objektu Základní (systémové) schéma modelu je možné ilustrovat následujícím orientovaným grafem (konceptuálním modelem), mj. uvádějícím odkaz na jednotlivé vstupní podněty, zdroje a metodiky ISÚ, potažmo EBD ISÚ (Buček, Vlčková, 2011): Obr. 1. Schéma modelu trendu pravděpodobných důsledků globálních klimatických změn. Zdroj: Autorka. 3.2 3.2.1 Metodický postup modelování variant – udržení cílového chování zkoumaného objektu Produkční funkce a řády efektů – charakter identity systému Podstata teorie produkčních funkcí (Vlček J., 2002) umožňuje pro obecně systémovou úlohu zjištění a přiřazení funkcí k prvkům použít obecný předpis funkčního vztahu: (2) , vjinémtvaru např. i j i ∶ j 1 … n , j kde ai A množiny částí (prvků) celku (modelu) pro i=1, 2, .... n celkového počtu částí celku; f je tvar funkce, schopnosti jednotlivého prvku; x jsou argumenty funkce, resp. vstupy do schopnosti prvku; y je hodnota výsledků schopnosti prvku. Acta Informatica Pragensia 77 Ve smyslu rozvinuté definice obecného systému zřetězení těchto „jednotlivých“ funkcí představují procesy na konkrétním objektu – modelu, resp. jejich množina reprezentuje chování celého systému. Tu je možné v celkovém souhrnu nazvat produkční funkcí objektu – v jiné terminologii chováním systému, vedoucím k určitému cíli = produkci, čili cílovým chováním systému. Diskuse hodné je též hledání i míry závislosti chování systému na uspořádání jeho vnitřní struktury, tedy charakter vnitřní vrstvy identity systému. V případě analyzovaného modelu je cílovým chováním udržení obsahu a výstupů prací a programových řešení k požadovanému výsledku predikce pravděpodobného trendu důsledků globálních klimatických změn na vegetačních kryt území. Ve smyslu analýzy vnitřní vrstvy identity modelu je konkretizace teoretických pojmů (kompaktnost, kompatibilita, konzistence – Vlček, 2002) naplněna prakticky programátorskou kvalitou provázanosti jednotlivých programových modulů, předáváním zpracovaných datových souborů a vypovídací schopností získaných výstupů. Z prostředí teorie řádů efektů je možné využít jejích specifických nástrojů pro dosahování cílů, měřitelných určitými kritérii efektu výstupu produkčních funkcí (Vlček, 2002). Jimi je svým způsobem pospána i míra složitosti samotné produkční funkce (cílového chování) v projekci do „prostorového“ rozměru výsledného efektu (výstupu produkční funkce). Ten je tak ovšem zároveň i charakteristikou vnější vrstvy identity, teoreticky sledované v rozměrech frekvence a spolehlivosti komunikace systému s jeho okolím (Vlček, 2002): lokální (bod) – v tomto případě by model zůstal neřešitelným; úsečka (spolupráce) – původní východisko modelu, vycházející ze součinnosti programátora (na straně EBD ISÚ (Buček, Vlčková, 2011)) a krajinného ekologa – specialisty (na straně geobiocenologické vědy (Buček, Lacina, 1988; Kopecká, Buček, Lacina, 1984)); přímka (monopol) – postupně se prohlubující model, skládající se ze stále více vnitřních, ovšem stále jednoznačně navazujících kroků; plocha (integrace) – propojení modelu, zejména jeho výstupů, do dalších prací a analýz na straně odborné veřejnosti, kdy kromě jiného nastupuje právě otázka míry frekvence a spolehlivosti projevu modelu; prostor (expanze) – rozšíření funkčností modelu nejen na původní geobiocenologický obor (predikce trendů změn vegetační stupňovitosti), ale i do lesnictví, zemědělství apod.; čas (pragmatický prostor) – v tomto řádu efektu nastupují časové varianty modelu – viz dále 4. 2. výstupy modelu; sociální rozměr (selektivní prostor) – bylo by jistě možné odbočit z technických věd do společenských zvažovat dopady případně nastalých hodnot výstupů modelu na hospodářství a zaměstnanost obyvatel v Česku (změna podmínek hospodaření v krajině, rekvalifikace pracovníků v souvisejících oborech aj.); globální rozměr (udržitelný rozvoj) – diskusi o případných vazbách na problém udržitelného rozvoje obecně nechávám již zcela na expertech tohoto oboru, ovšem návaznost úvah je zcela zřejmá. 3.2.2 Teorie o znalosti – nástin etiky systému Posledním užitým metodickým nástrojem jsou prvky teorií o znalosti, a to členění typů dat podle úrovně významu jejich pragmatické hodnoty (Vlček, 2002): 78 Vlčková vstupní typ syntaktický jazykový konstrukt údaj, data údaj, data informace informace efekty, výsledky informace, znalosti procesy na systému informace, znalosti, odpovědnost, moudrost vnější soustava význam prosté, nijak neohodnocené zobrazení originálu funkce zhodnocení vstupních dat uživatelem funkce kombinace (tranzitivity, odvozování) ohodnocení kvality výsledné znalosti míra účelnosti, potřebnosti výsledku výstupní typ údaj, data informace znalosti odpovědnost, zkušenost moudrost odůvodnění výsledku víra Tab. 1. Pragmatické typy dat v teorii znalosti. (Vlček, 2002) V souvislosti s analýzou diskutovaného modelu lze samozřejmě zvažovat základní otázku etiky systému (Vlček, 2002): „Jak moc je dobré, že…“, je realizován model s takovou otázkou (pravděpodobné trendy dopadů globálních klimatických změn), že se užívají ty datové zdroje, které se užívají (je vstup dat zvolen správně? jak úplně? apod.); dále i třeba kde se řešitelé nacházejí v té které fázi ve smyslu pragmatické hodnoty dat, čili kdy jde o práci s daty, s informacemi, kdy a zda jsou vytvářeny jaké nové znalosti, s jakou odpovědností jsou formulovány a dále šířeny, přinášejí nějakou míru moudrosti a nehrozí nebezpečí, že se stanou pouhou (slepou) vírou… ? – všechny tyto úvahy se však nacházejí již na (měkkém) rozhraní technických a společenských věd, a proto je zde záměrně dále nerozebírám. 3.2.3 Aplikace užitých speciálních teorií – obor kompetencí systému Pro další úvahy ohledně kompetencí, schopností, snad i ve smyslu zvláštních oprávnění analyzovaného modelu tedy vycházím z průběžných závěrů předcházející diskuse (Vlčková, 2010, Vlčková, 2011a; Vlčková, 2011b): aktuální časoprostor existuje v určitém řádu efektu = (životní) prostředí, zájmové území, environment, udržitelnost jeho aktuálních vlastností; jedná se o hledání nástroje, umožňujícího v časoprostoru modelování a prognózování produkčních funkcí s ohledem na udržitelný rozvoj; budiž tedy užit (na velmi hrubé rozlišovací úrovni) systémový model území v základním tvaru produkční funkce: (3) kde argumenty x – rozpoznané prvky území vybavené příslušnou databází – (geo)data funkční předpis f – rozpoznané vztahy mezi nimi a jejich parametry, jakož i časové návaznosti událostí a změn stavů, jinak řečeno formulace modelovaných či prognózovaných územních jevů pro strategické rozhodování – (geo)informace výsledek y – získaná (geo)znalost Troufale lze tedy provést přepis základního, „nekonkretizovaného“ tvaru produkční funkce systémového modelu území do tvaru: č í Z odkazu na 3.1. „Rich picture“ modelu tedy vyplývá, že: (4) Acta Informatica Pragensia 79 samotnými geodaty jsou argumenty x: o údaje o klimatu o data registru biogeografie aj. z EBD ISÚ geoinformacemi tedy lze rozumět postup jejich zpracování ve smyslu: y f údaje oklimatu; registr biogeografie a další součásti EBDISÚ, dalšízemědělskéapod. charakteristiky katastrálních území (5) o čili přiřazení klimatických charakteristik v jednotlivých časových horizontech k samotným katastrálním územím, doprovázeným zmíněnými ekologickými charakteristikami, a určení jejich reálné vzájemné závislosti ve výchozím časovém horizontu geoznalostí se stává výstup příslušné produkční funkce v řádu v nejvyšším řádu efektu: závislostmezi hodnotami klimatických veličin ageobiocenologických charakteristik (6) údajeoklimatu; geobiocenologické, zemědělské aj. charakteristiky katastrálníchúzemí o čili výstupní variantní model pravděpodobného trendu posunu vegetační stupňovitosti a hodnot navázaných klasifikací (podmínky pro pěstování dřevin či zemědělských plodin atd. podle použitých geodat ve vstupním argumentu) 3.3 Algoritmizace úlohy – druhové chování zkoumaného objektu Samotné řešení modelu lze s odvoláním na složky definice obecného systému vnímat jako vždy se opakující, robustní procesy na systémovém modelu – tedy na úrovni genetického kódu systému, resp. jeho druhového chování. Tímto druhovým chováním je samotná algoritmizace zadané úlohy – model trendu pravděpodobných důsledků globálních klimatických změn – která předkládá možný trend změny konkrétního vegetačního stupně v příslušné jednotce území podle zjištěné funkce závislosti vegetační stupňovitosti na predikované změně hodnoty použité klimatické charakteristiky. Jedním ze vstupních parametrů je samozřejmě i časový horizont použitého scénáře očekávané změny – viz (Buček, Kopecká, 1994; Buček, Kopecká, 1993; Buček, Kopecká, 2001a; Buček, Kopecká, 2001b; Buček, Kopecká, 2004; Buček, Vlčková, 2009g; Buček, Vlčková, 2010; Buček, Vlčková, 2011; Kopecká, Buček, 1997; Kopecká et al., 2013; Vlčková, Buček, Machar, 2014). Samotný algoritmizační postup programování opakovatelných procesů (a v průběhu doby od prvních variant řešení v r. 1994 až k aktuálním rozpracovaným verzím naposled z r. 2013) znamenal účelově naprogramovat a respektem k variantnosti datových vstupů a výstupů zautomatizovat specifické procedury, resp. procesy, teoreticky naplňující právě význam druhového chování systému. 80 Vlčková Obr. 2. Schéma postupu algoritmizace modelu trendu pravděpodobných důsledků globálních klimatických změn. Zdroj: Autorka. Krok 1 – pořízení dat či získání geodat, tedy podmnožina procesů na vstupu do systému, znamená zajistit transformaci získaných tematických dat do tvaru a formátu, zpracovatelného konkrétními nástroji technologie geografických informačních systémů (dále jen „GIS“). V době „numerického GIS“ to znamenalo grafické, ručně pořízené papírové podklady (mapy izolinií) dostat do numerického tvaru, zpracovatelného klasickými databázovými postupy na počítači. V době „moderního GIS“, vybaveného již grafickým rozhraním, to znamenalo paradoxně naopak dostat získaná numerická data z numerického výpočetního modelu do grafického formátu pro software GIS (tematické vrstvy dat). (Barrile, Armocida, Di Capua, 2009; Bravo, Casals, Pascua, 2007) Základem kroku 2 – přípravy dat či konstrukce geoinformačních vztahů je přiřazení klimatických charakteristik v jednotlivých časových horizontech k vybraným jednotkám území, a to k definičním bodům katastrálních území. Jako vztahový ukazatel byl použit Langův dešťový faktor (LDF): č íú ů ě á áž č í ° (7) Dalším krokem – krok 3 modelového postupu či získání geoznalosti – je přiřazení průměrné roční teploty, průměrných ročních srážek a hodnoty Langova dešťového faktoru, vázaných na kategorie vegetační stupňovitosti, ke katastrálním územím ČR. Samotný trend posunu vegetační stupňovitosti – posléze vybraných typů území – je poté odvozován metodou časoprostorových analogií právě za užití nalezených funkcí závislosti mezi vegetační stupňovitostí a hodnotami klimatických charakteristik. Krok 4 výstup či publikace geoznalosti obsahuje běžné procesy na rozhraní systému a jeho okolí ve smyslu výstupu, tedy prezentaci získaných výsledků podle typu uživatele: kartogramy a kartodiagramy, tabulkové bilance aj. Podle Tab. 1 – Pragmatické typy dat v teorii znalosti (Vlček, 2002) by mohla následovat až tvorba (inženýrské) moudrosti. Pokračováním v řetězu typů informací se lze poté dostat až k vytvoření určitých složek jakési víry, jež si lze v dalším otočce spirály představit jako (geo)data, vstupující do nového procesu hledání (geo)informací pro získávání dalších a dalších (geo)znalostí atd. Acta Informatica Pragensia 81 4 4.1 Popis užitých vstupů a výstupů modelu – komunikace systému s okolím Zdroje dat Zdroji dat (argumenty x produkční funkce modelu) pro vytváření (funkční předpis f produkční funkce modelu) variant možností dopadu klimatických změn na vegetační kryt České republiky (výstupy y produkční funkce modelu) (Vlčková, 2009; Vlčková, 2010; Vlčková, 2011a; Vlčková, 2011b) byly – viz výše – vytipovány jednak údaje o klimatu (měřené hodnoty i predikční modely) od Českého hydrometeorologického ústavu, jednak data tzv. registru biogeografie (Buček, Lacina, 1988; Kopecká, 1983-1994; Kopecká, Buček, Lacina, 1984), který obsahuje specifickou klasifikaci vegetační stupňovitosti, trofických a hydrických řad. Prostřednictvím užitých prostorových jednotek – katastrálních území ČR – je lze posléze propojovat s údaji o zemědělství apod. (zemědělské výrobní oblasti, přírodní stanoviště aj.) s odkazem na někdejší Ekologickou banku dat ISÚ. 4.1.1 Klimatologické podklady První variantou poskytnutých údajů a klimatu ČR byl regionální scénář klimatické změny na území ČR, zpracovaný v rámci Národního klimatického programu ČR. Výsledkem zpracování regionálního scénáře pro území České republiky byly mapy izolinií průměrných ročních teplot a průměrných ročních srážek na území České republiky v roce 2010 a v roce 2030. Jako výchozí klimatická data byly použity údaje z 33 klimatických stanic na území ČR za období let 1961 až 1990. Obr. 3. Otisk zdrojového podkladu scénářů klimatických změn – predikce izolinií ročních úhrnů srážek k roku 2030. Zdroj: Autorka. Druhou variantou byly údaje ze „síťového modelu“ ČHMÚ (Zpřesnění dosavadních odhadů dopadů klimatické změny v sektorech vodního hospodářství, zemědělství a lesnictví a návrhy adaptačních opatření (V) – Závěrečná zpráva o řešení 2007–2011, Projekt VaV – SP/1a6/108/07, ČHMÚ, Praha 2011), z nichž jsou použity údaje o ročních úhrnech srážek, 82 Vlčková roční průměrné relativní vlhkosti vzduchu, roční průměr denní sumy globálního záření, roční průměrná teplota vzduchu a roční průměrná rychlost větru. Užitá bodová síť je tvořena 131 body pravidelně rozmístěnými po celém území ČR v podobě lichoběžníkové sítě. Obr. 4. Otisk pracovního podkladu scénářů klimatických změn – body sítě ČHMÚ, k nimž byly zpracovány předpovědní scénáře hodnot vybraných klimatologických veličin. Zdroj: Autorka. 4.1.2 Registr biogeografie EBD ISÚ Registr biogeografie vznikl původně pro EBD ISÚ (Buček, Lacina, 1988; Kopecká, 19831994; Kopecká, Buček, Lacina, 1984) jako specializovaná tematická databáze nad soustavou katastrálních území. Cílem bylo zachytit geobiocenologické charakteristiky území ČR s možností jejich propojování s dalšími údaji EBD ISÚ. Registr biogeografie tak uchovává charakteristiku geobiocenologických vlastností za přibližně 13 000 polygonů beze zbytku pokrývajících území ČR a víceméně vystihujících homogenitu ploch (původní tereziánský katastr poměrně věrně vystihoval tehdejší přirozené hranice př. vodoteče, hranice lesa, výrazné geomorfologické útvary apod.). Katastrální území bylo vybráno jako poměrně stálá prostorová jednotka registru biogeografie (Buček, Lacina, 1988; Kopecká, 1983-1994; Kopecká, Buček, Lacina, 1984;) především proto, aby bylo možné hodnotit dynamiku změn v krajině s využitím těch periodicky obnovovaných registrů EBD ISÚ, které tehdy charakterizovaly antropické tlaky. Ve všech těchto registrech bylo základní popisovanou jednotkou právě katastrální území – viz Obr. 1 Struktura datové báze ISÚ a EBD ISÚ. Katastrální území jako jednotky členění území pro účely evidence nemovitostí sice dnes již nejsou tak homogenní z hlediska přírodních podmínek tak, jak při jejich prvním ustavení v tereziánském katastru, a mají i velmi různou velikost a rozmanitý tvar. Avšak svojí „univerzálností“ použití při sběru a zpracování dat a informací o území jsou prakticky vzato jedinou možností, jak vzájemně prostorově nesourodé údaje sjednotit na nějakou společnou prostorovou základnu (srovnej se společným Acta Informatica Pragensia 83 jmenovatelem v aritmetice), a tak umožnit vytváření právě odvozených informací a znalostí o území. Každé katastrální území je konkrétně charakterizováno údaji nadstavbových jednotek geobiocenologické typizace krajiny ČR podle Zlatníka (Buček, Lacina, 1988). Vegetační stupňovitost vyjadřuje souvislost sledů změn přirozené vegetace se změnami výškového a expozičního klimatu. Změny vegetačních stupňů jsou funkcí gradientu klimatických podmínek pod vlivem nadmořské výšky. Trofické řady vyjadřují rozdíly trvalých ekologických podmínek z hlediska minerální síly a acidity půd. Hydrické řady vyjadřují rozdíly vodního režimu půd. Obr. 5. Náhled současného stavu rozložení vegetačních stupňů. Zdroj: Autorka, Antonín Buček, Jan Lacina. 4.2 4.2.1 Výstupy modelu Úvodní verze modelu Vedoucí úvahou modelu je časová analogie vztahu klimatických charakteristik a vegetační stupňovitosti. Pro variantní prognózu důsledků možných globálních změn klimatu na území České republiky byl vypracován metodický postup prognózy změn vegetační stupňovitosti s využitím údajů právě registru biogeografie (Buček, Kopecká, 1994), který je založen na prognostické metodě časoprostorových analogií. Jedná se o model statický, neumožňující předpovídat rychlost změn vegetace. Základem je jednak vztah současné vegetační stupňovitosti a disponibilních charakteristik, jednak předpoklad, že uvažované změny klimatických podmínek se projeví i v určitém trendu změn vegetační stupňovitosti. 84 Vlčková Pro připojení klimatických veličin byl – viz 3.3. – použit Langův dešťový faktor, kombinující do jedné hodnoty roční průměrný úhrn srážek a roční průměrnou teplotu. Vymezující vlastností úvodní verze modelu bylo použití izolinií vstupních klimatických charakteristik, promítnutých do soustavy jednotek katastrálních území, reprezentujících základnu registru biogeografie. Obr. 6. Náhled predikce stavu rozložení vegetačních stupňů zhruba k období let 2051 – 2070. Zdroj: Autorka, Antonín Buček, Jan Lacina. 4.2.2 Současná verze modelu V současné verzi modelu jsou ke katastrálním územím přiřazována data ze „síťového modelu“ ČHMÚ. Tato data, nově modelovaná ČHMÚ v numerické podobě za bodové objekty, bylo nutno z původních 131 bodů pravidelné sítě „rozprostřít“ do území tak, aby bylo též možné je prostorově propojit s plochami katastrálních území, a získat tak vazbu na geobiocenologické či zemědělské charakteristiky, přiřazované ke katastrálním územím. To je provedeno analyticko geometrickou cestou konstrukce podstatně podrobnější sítě bodů v území, do nichž jsou gradientní metodou přepočteny hodnoty klimatických veličin příslušných blízkých sousedících původních 131 bodů modelové sítě dat z ČHMÚ. Acta Informatica Pragensia 85 Obr. 7. Náhled predikce stavu území ČR z hlediska vhodnosti pěstování buku lesního zhruba k období let 2051 – 2070. Zdroj: Autorka, Antonín Buček, Jan Lacina. 5 Záludnosti modelu – měkkost systému Je nezbytné vnímat, že se jedná o systémově měkký model, umožňující charakterizovat především pravděpodobné trendy důsledků globálních klimatických změn bez definitivního stanovení konkrétních hodnot v jednotlivých krocích časové osy v predikovaném časovém období. Příčinami jsou především „podrobnost“, vypovídací schopnost vstupních dat a jejich věrohodnost; dále faktory, které – s odvoláním na metodologii měkkých systémů (Checkland, Scholes, 1990) – jsou buď na dané úrovni podrobnosti nerozpoznatelné, nebo neměřitelné, či nejasné ve svém přiřazení do substruktur modelu (Vlček, 2002); a koneckonců i vlastní procesy (programové moduly) modelu též nelze označit za konečným způsobem vyřešené (možná další větvení softwarového řešení, možné cyklické procesy, variantní způsoby propojení údajů o klimatu ke geobiocenologickým charakteristikám apod.). Potřebnou míru pravdivosti – „tvrdosti“ (jednoznačnou platnost přiřazení predikovaných hodnot ke konkrétním časovým horizontům) by totiž musela obsahovat již vstupní data, která jí však obdařena nejsou – z ničeho neplyne jednoznačný závěr, že změny hodnot klimatických charakteristik budou probíhat tak rychle (či pomalu), jak napovídá speciální výpočetní model Aladin ČHMÚ aj. Lze stavět pouze na jediném pevném, neměnném faktu, a to na vztahu nadstavbových jednotek geobiocenologické klasifikace a příslušejících průměrných hodnot klimatologických veličin. Mezi (hard) záludnostmi, resp. procedurami, napomáhajícími určité míře „vytvrzení“ modelu patří zmínit závěrem i některé dílčí procesy, provedené pouze jedinkrát na počátku modelování, neopakujíce se při variantním provozování modelu. Např. úvodní hledání 86 Vlčková funkční závislosti mezi klimatickými charakteristikami a nadstavbových jednotek geobiocenologické klasifikace nevycházelo jednoduše z celostátních průměrů, ale postupně z analýzy dat, zúžených na údaje jednotlivých specifických regionů, poté bylo 91 jednotlivých regionální částí složeno do vztahového vzorce za celou ČR, který byl nadále používán jako jeden z konstantních zdrojů (geo)dat. 6 Závěrem aktuální stav aplikací modelu – výstupy do okolí V prvé řadě je možné diskusi nad systémovým charakterem modelování trendu důsledků klimatických změn uzavřít mj. i konstatováním, že – svým způsobem paradoxně – spolehlivost, pravdivost (resp. tvorbu znalostí, zkušeností atd.) predikcí a prognóz je nezbytné hledat především v pravdivosti (informačních) vztahů, „nenapadnutelnost“ samotných vstupních „pouhých dat“ k vytváření věrohodných obrazů budoucích stavů nestačí. Systémový závěr jinými slovy říká, že jakékoliv modelování je úkolem hledání vztahů, zatímco užité konkrétní hodnoty proměnných jsou v podstatě jen nástrojem pro vytváření variant. Celý model byl využit v první řadě pro analýzu dat o podmínkách vhodnosti pro pěstování dřevin, a to smrku ztepilého a buku lesního. V tomto případě byly uplatněny obě dvě verze modelu. Tyto výstupy byly současně průběžně publikovány a mj. uplatněny i v Atlase životního prostředí ČR. V poslední době byl model aplikován na obdobné úlohy již z oboru zemědělství, a to na cukrovou řepu (Kopecká et al., 2013), v běhu jsou práce na podobném tématu ohledně vinné révy, jejichž výsledky se dokončují k publikaci v dohledné době v příslušných odborných periodikách. Lesnické aplikace jsou též rozpracovány na téma výmladkových lesů, ovšem vzhledem ke stavu rozpracovanosti této verze užití modelu se publikace chystá na pozdější dobu po dokončení plánovaných úprav modelu. Poděkování Zcela nezbytné je závěrem připomenout samotné „okolí autorky“, bez něhož by tento model a poté tento příspěvek nevznikl a jemuž patří řádné poděkování: bývalé Středisko R, oddělení programátorů (dnes informatiků) TERPLANu, Státního ústavu pro územní plánování, odpovědné za vývoj a provoz ISÚ, resp. EBD ISÚ RNDr. Alois Kopecký, vedoucí Střediska R v letech 1985 – 1990 Ing. Igor Míchal, CSc., odborný konceptor EBD ISÚ Doc. Ing. Antonín Buček, CSc., odborný garant registru biogeografie prof. Dr. Ing. Jaroslav Vlček, DrSc., významný český praktik i teoretik především konstruktivní teorie systémů prof. Ing. Zdeněk Votruba, CSc., odborný garant systémových věd FD ČVUT RNDr. Radim Tolasz, CSc., jeden z autorů použitých prací ČHMÚ RNDr. Jan Pretel, CSc., jeden z autorů použitých prací ČHMÚ RNDr. Jaroslava Kalvová, CSc., jedna z autorů použitých prací NKP ČR Seznam použitých zdrojů Barrile, V., Armocida, G., Di Capua, F. (2009). GIS application with Artificial Intelligence Algorithms for an Isoseismic Model. In Proceedings of the 2nd WSEAS International Conference on engineering mechanics. Bravo, J.D., Casals, X.G., Pascua, I.P. (2007). GIS approach to the definition of capacity and generation ceilings of renewable energy technologies. Energy Policy, 35(10), 4879–4892. Acta Informatica Pragensia 87 Buček, A., Kopecká V. (1994). Využití registru biogeografie ISÚ pro prostorové vyhodnocení trendu změn vegetačních stupňů ČR v důsledku globálních změn klimatu. In Závěrečná zpráva zakázky č. 94 057. Praha: TERPLAN a.s. Buček, A., Kopecká, V. (1993). Geobiocenologické podklady v informačním systému o území. In Geobiocenologický výzkum lesů, výsledky a aplikace poznatků. Brno. Buček, A., Kopecká, V. (2001a). Globální klimatické změny a vegetační stupně na území ČR. Veronica, časopis ochránců přírody. 15(1). Buček, A., Kopecká, V. (2001b). Scénáře důsledků vlivů globálních klimatických změn na přírodu České republiky. In Tvář naší země – krajina domova. Praha: Česká komora architektů. Buček, A., Kopecká, V. (2004). Možná globální změna klimatu a vegetační stupně. In Polehla, P. (ed) Hodnocení stavu a vývoje lesních geobiocenóz. Brno. Buček, A., Lacina, J. (1988). Aplikační systém registru biogeografie. Praha: Státní ústav pro územní plánování. Buček, A., Vlčková, V. (2009a). Možný vliv globálních změn klimatu na pěstování buku lesního (Fagus sylvatica) 1990 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 323, s. 320. Praha: Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví. Buček, A., Vlčková, V. (2009b). Možný vliv globálních změn klimatu na pěstování buku lesního (Fagus sylvatica) 2030 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 324, s. 320. Praha: Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví. Buček, A., Vlčková, V. (2009c). Možný vliv globálních změn klimatu na pěstování buku lesního (Picea abies) 2030 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 326, s. 320. Praha: Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví. Buček, A., Vlčková, V. (2009d). Možný vliv globálních změn klimatu na pěstování smrku ztepilého (Picea abies) 1990 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 325, s. 320. Praha: Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví. Buček, A., Vlčková, V. (2009e). Možný vliv globálních změn klimatu na vegetační stupně 1990 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 327, s. 320. Praha: Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví. Buček, A., Vlčková, V. (2009f). Možný vliv globálních změn klimatu na vegetační stupně 2030 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 328, s. 320. Praha: Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví. Buček, A., Vlčková, V. (2009g). Scénář změn vegetační stupňovitosti na území České republiky: deset let poté. Ochrana přírody, 64 (8–11). Buček, A., Vlčková, V. (2010). Globální klimatická změna a prognóza změn vegetační stupňovitosti na území České republiky. In International Conference in Landscape Ecology. Brno. Buček, A., Vlčková, V. (2011). Soubor map s prognózou možných důsledků globálních klimatických změn na přírodu České republiky. Acta Průhoniciana. Checkland, P., Scholes, J. (1990). Soft Systems Methodology in Action. Toronto: John Wiley & Sons. ISBN 9780-471-98605-8. Kopecká, V. (1983 – 1994). Ekologická banka dat ISÚ. In Roční situační zprávy pro Integrovaný informační systém o území ISÚ. Praha: TERPLAN a.s., Státní ústav pro územní plánování. Kopecká, V. a kol. (1992). Katalog datové báze ISÚ 1992. Praha: TERPLAN a.s. Kopecká, V. a kol. (1993). Sekundární datová báze ISÚ. In Situační zpráva zakázky č. 93 007. Praha: TERPLAN a.s. Kopecká, V., Buček, A. (1997). Modelování možných důsledků globálních klimatických změn na území České republiky. In Situační zpráva podúkolu DÚ 01 "Využití GIS a DPZ při výzkumu přírody a krajiny 88 Vlčková chráněných území, ohrožených ekosystémů a neživé přírody za účelem zlepšení péče o toto území". Grant VaV/610/3/96 "Územní souvislosti péče o krajinu". Praha. Kopecká, V., Buček, A., Lacina, J. (1984). Zadávací projekt registru biogeografie. Praha: Státní ústav pro územní plánování. Kopecká, V., Machar, I., Buček, A., Kopecký, A. (2013). Vliv klimatických změn na možnosti pěstování cukrové řepy. Listy cukrovarnické a řepařské, 129(11). Vlček, J. (1986). Metody SI. Praha: SNTL. Vlček, J. (1992). Inženýrská informatika. Praha: ČVUT. Vlček, J. (2002). Systémové inženýrství. Praha: ČVUT. Vlček, J., Petr, J. (1983). Analýza a projektování systémů. Praha: ČVUT. Vlčková, V. (2009). Co je GIS. Nepublikovaná přednáška Vlčkova semináře. Praha: FD ČVUT. Vlčková, V. (2010). Geoznalost a geoinformační inženýrství. Praha: ARCDATA. Vlčková, V. (2011a). Geoinformační inženýrství – integrující disciplína systémového inženýrství a (geo)informatiky. Systémová integrace, 8(2). Vlčková, V. (2011b). Kudy kam geoinformačním inženýrstvím. Praha: ČVUT, Fakulta dopravní. Vlčková, V., Buček, A., Machar, I. (2014). Aplikace geobiocenologie v hodnocení vlivů klimatických změn na ekosystémy v krajině. In Výroční konference GEOBIO 2014 "Změny v současné struktuře a využívání krajiny". Praha. Acta Informatica Pragensia 3(1), 2014, 89–103, DOI: 10.18267/j.aip.37 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers Model pre sledovanie objektu s prediktívnym riadením zdrojov streamingu v multikamerových systémoch Object Tracking Model with Predictive Control of Streaming Sources in Multicameras Systems Dávid Cymbalák1, Miroslav Michalko1, František Jakab1 1 Laboratórium počítačových sieti, Katedra počítačov a informatiky, Fakulta elektrotechniky a informatiky, Technická univerzita v Košiciach Letná 9, 042 00 Košice, Slovenská republika [email protected] Abstrakt: Práca sa zaoberá analýzou, porovnaním a návrhom prepojenia streamingových, detekčných a sledovacích technológií v prostredí multikamerových systémov. Cieľom je návrh prediktívneho sledovacieho systému, ktorý v reálnom čase sleduje a trasuje objekt v záberoch z viacerých kamier a realizuje streaming videa práve z jedného zdroja, v ktorom je objekt najlepšie zobrazený. Na ohodnotenie jednotlivých zdrojov systému bola navrhnutá metrika hodnotenia založená na aktuálnej polohe, veľkosti a miere spoľahlivosti detekcie sledovaného objektu v zábere. V práci boli navrhnuté mechanizmy a spôsoby predikcie hodnotenia jednotlivých zdrojov, predikcie nasledujúceho vysielaného zdroja a spôsoby riadenia streamingu. Kľúčové slová: Video streaming, Sledovanie objektu, Počítačové videnie, Multikamerové systémy, Predikcia Abstract: This work deals with the analysis, comparison and design of interconnection between streaming, detection and tracking technologies in the multi-camera environment. The goal is design of predictive tracking system with ability to track object in real time across multiple cameras and also with ability to stream video from one source with the best display of object. There was designed a metric for rating each source of system, which is based on current position, size or detection reliability of tracked object in the scene. It was also designed mechanisms and methods for prediction of video source rating, for prediction next streamed source and methods for stream control. Keywords: Computer vision, Multicameras systems, Prediction methods for stream control. 90 Cymbalák, Michalko, Jakab 1 Úvod Problematika sledovania a trasovania objektu v záberoch z priestoru zachytávanom viacerými kamerami je v posledných rokoch skúmaným odvetvím najmä bezpečnostných systémov. Problémy vznikajúce pri detekcii objektu v rôznorodých záberoch rôznej farebnosti a z rôznych uhlov boli predmetom viacerých výskumov. Dôraz sa však doposiaľ veľmi nekládol na prepojenie detekčných technológií so streamingovými technológiami pre účely výstupného vysielania v reálnom čase obsahujúceho aktuálny najlepší záber sledovaného objektu v rámci multikamerového systému. Problém výberu najlepšieho záberu na určitý objekt je možné rozdeliť na niekoľko pohľadov: z pohľadu ostrosti záberu a kvalitatívnych zložiek prenášaného obrazu, z pohľadu veľkosti objektu vzhľadom na záber, z pohľadu natočenia a uhla pohľadu na objektu alebo z pohľadu pozície objektu vzhľadom na záber. Ak je žiaduce preniesť vždy iba najlepší záber na objekt v reálnom čase s automatickým výberom záberov, je nutné uvažovať aj o probléme oneskorenia medzi prenosom obrazu a reálnou polohou sledovaného objektu. Z tohto dôvodu prichádza do úvahy predikcia výberu najlepšieho záberu a to na báze predpovede nasledujúceho hodnotenia, predpovede trajektórie pohybu alebo kombinácie so zahrnutím informácií o vzájomnej polohe kamier a konjunkcie záberov. Cieľom práce prezentovanej v článku je teda vytvorenie prediktívneho sledovacieho systému, ktorý by na základe periodického ohodnocovania všetkých zdrojov multikamerového systému realizoval streaming práve jedného zdroja videa, ktorý bude mať v aktuálnom čase najvyššie predikované ohodnotenie na základe novovytvorenej metriky. Idea je navrhnúť takú metriku, ktorá určí také ohodnotenie jednotlivých zdrojov videa, ktoré bude závisle na aktuálnej polohe, veľkosti a ďalších vybraných vlastnostiach sledovaného objektu v zábere. Na vytvorenie návrhu jednotlivých mechanizmov navrhovaného systému je potrebné analyzovať súčasné streamingové technológie pre účely zostavenie mechanizmu riadenia streamingu, súčasné detekčné a sledovacie metódy v obraze pre účely zostavenia mechanizmu hodnotenia zdroja v multikamerovom systéme a súčasné metódy predikcie a klasifikácie pre účely zostavenia mechanizmu predikcie nasledujúceho pohybu objektu alebo nasledujúceho zdroja vysielania. 2 Streamingové technológie O’driscoll (2008) definoval streamingové technológie zabezpečujú prenos multimediálneho obsahu prostredníctvom počítačovej siete vo forme vysielania zvuku, videa a doplnkového obsahu v smere od poskytovateľa k príjemcovi. V priebehu posledných rokov sa multimediálne aplikácie a streamingové technológie stali natoľko populárne, že generujú viac ako polovicu celkového internetového toku. Napriek tomu Akhshabi, Begen a Dovrolis (2011) vo svojom príspevku upozorňujú, že streamingové technológie prenášané IP sieťou sú stále realizované bez nejakej rozšírenej špeciálnej podpory zo strany siete . Medzi neodmysliteľnú súčasť streamingových technológií patria aj streamingové protokoly, ktoré zabezpečujú prenos paketov s multimediálnym obsahom. Rozdelenie multimediálneho obsahu na viacero paketov, kompresiu a inicializáciu prenosu ku koncovému klientovi, zabezpečuje streamingový video server. Prenos multimediálneho obsahu medzi rôznymi uzlami v sieti môže byť vykonaný rôznymi spôsobmi. Typ obsahu, ktorý sa prenáša, a súvisiace sieťové podmienky zvyčajne stanovujú metódy používané pre komunikáciu. V Acta InformaticaPragensia 91 prípade jednoduchého prenosu súboru cez siete s vyšším výskytom straty paketov je kladený dôraz hlavne na spoľahlivosť doručenia. Pakety môžu byť chránené proti stratám so zavedením redundancie alebo stratené pakety môžu byť obnovené opakovaním prenosom. Pokiaľ dochádza k doručovaniu multimediálneho obsahu v reálnom čase, najväčší dôraz je kladený na latenciu a efektívny prenos, kde môžu byť tolerované príležitostné straty. Štruktúru paketov a algoritmy pre vysielanie a riadenie prenosu v reálnom čase v sieti definujú streamingové protokoly. Podľa Begen, Akgul a Baugher (2011) sa súčasné streamingové protokoly určené na prenos multimediálneho obsahu sa líšia v implementačných detailov, ktoré ich rozdeľujú do dvoch hlavných kategórií: protokoly s princípom tlačenia (PUSH) a protokoly s princípom ťahania (PULL). PUSH protokoly vytvoria spojenie medzi serverom a klientom, ktoré je stále udržiavané a pakety sa vysielajú ku klientovi až pokiaľ sa spojenie nepreruší vypršaním limitu alebo prerušením na strane klienta. Najznámejšie PUSH protokoly sú RTSP, RTMP, RTP, 3GPP. V PULL protokoloch je klient aktívnym prvkom, ktorý nadväzuje spojenie vo forme žiadostí o multimediálny obsah od streamingového servera. Najznámejšie využitie PULL protokolov je v prípade progresívneho sťahovania multimediálneho obsahu, kde klient posiela HTTP požiadavku na server a začína sťahovať obsah hneď ako mu server na požiadavku odpovie. Na základe porovnania výkonnosti v súčasnosti populárnych streamingových protokolov HTTP a RTMP v prístupe realizovanom Mizerákom (2010) bol zistený rozdiel pri nasadení v trvaní spracovania požiadavky serverom. V tomto prípade bola efektivita protokolu RTMP niekoľko násobne väčšia ako HTTP (Obr. 1), avšak výsledky sa môžu líšiť v prípade nasadenia protokolu v inom type aplikácií. Obr. 1. Porovnanie výkonnosti protokolov HTTP a RTMP v prístupe Mizeráka (2010). 3 Sledovanie objektu vo videu Detekcia objektu v obraze slúži na rozpoznanie a klasifikáciu sledovaného objektu a na určenie jeho vlastností ako je veľkosť, natočenie ale aj poloha. Na rozpoznanie objektu v obraze je potrebné obraz rozdeliť na segmenty, redukovať málo významné časti obrazu, 92 Cymbalák, Michalko, Jakab respektíve extrahovať významné časti obrazu. Redukcia alebo extrakcia prvkov v obraze sa môže realizovať predspracovaním formou aplikácie filtrov obrazu a popisom obrazu na základe príznakov. Z hľadiska sledovania objektu vo videu je dôležité realizovať detekciu objektu na sérií vybraných časovo odstupňovaných snímok daného videa. V každej spracovanej snímke, kde je po detekcii objekt rozpoznaný, sa vypočíta jeho poloha vzhľadom na záber snímania. Wang et al. (2011) definuje charakter pohybu objektu ako sériu údajov o polohe, či už vo forme postupnosti bodov so súradnicami alebo vo forme funkcie. Detekcia pohybujúcich sa objektov vo videu môže byť realizovaná na základe odfiltrovania pozadia. Odfiltrovanie pozadia na základe farebnosti alebo gradientu sa môže realizovať na úrovni pixelu, regiónu obrazu alebo celej snímky. Metódy, ktoré sledujú odchýlky v jednotlivých snímkach videa musia čeliť rôznym problémom, ktoré sa vyskytujú pri snímaní realistického prostredia: postupné alebo náhle zmeny osvetlenia, nízka miera farebnej odlíšiteľnosti sledovaného objektu od prostredia, neželané tiene objektu, zmena pozadia sledovaného objektu alebo neustály pohyb objektu aj pri inicializácií detekcie. Všetky tieto faktory ovplyvňujú úspešnosť rozpoznania objektu vo videu a preto je vhodné použitie takzvaných učiacich algoritmov, ktoré budú priebežne sledovať zmeny na sledovanom objekte a dopĺňať modelový vzor, podľa ktorého sa objekt detekuje. Typický sledovací systém je zložený z troch komponentov: reprezentácia objektu, dynamický model a vyhľadávací mechanizmus. Objekt môže byť reprezentovaný buď holistickým deskriptorom ako je farebný histogram a hodnota úrovne jasu pixelu, alebo môže byť reprezentovaný lokálnym deskriptorom ako je lokálny histogram a informácia o farebnosti. Dynamický model je zvyčajne používaný na zjednodušenie výpočtovej zložitosti pri sledovaní objektu. Vyhľadávací mechanizmus slúži na optimalizáciu samotného sledovania objektu a môže využívať deterministické aj stochastické metódy. Dôležitým prvkom pri sledovacích metódach je pohybový model, ktorý môže vyjadrovať napríklad posuvný pohyb, transformáciu na základe podobnosti objektov alebo afinnú transformáciu. Medzi súčasné moderné metódy používané pri sledovaní objektov v reálnom čase patria: inkrementálne vizuálne sledovanie (IVT), ktorý bližsie popisuje Ross et al. (2008), rozptýlené pomerné sledovanie (VRT) opísané Collinsom, Liuom a Leordeanu (2005), fragmentové sledovanie (FragT) opísané Adamom, Rivlinom a Shimshoniom (2006), posilnené sledovanie v reálnom čase (BoostT) popísné Grabnerom a Bischofom (2006). Sledovanie dohľadom Gong et al. (2012) možno rozdeliť na: čiastočný dohľad (SemiT) opísané Grabnerom, Leistnerom a Bischofom (2008), alebo rozšíreným dohľadom (BeSemiT) popísaným v prístopoch Staldera, Grabnera a Van Goola (2009). Ďalšie metódy ako Tracker (L1T) nasadený Meiom a Lingom (2009), sledovanie so schopnosťou viac-inštančného učenia (MIL) definované Babenkom, Yangom a Belongieom (2009), algoritmus vizuálnej sledovacej dekompozície (VTD) opísaný Kwonom a Leeom (2010) a metóda sledovania a detekcie so schopnosťou učenia (TLD) vytvorená Kalalom, Matasom a Mikolajczykom (2010), ktorá je aj podľa nasledovných výskumov Kalala , Mikolajczyka a Matasa (2012) považovaná za vysoko spoľahlivú a použiteľnú pre rozmanité typy vzorov sledovania. Spoľahlivosť a funkčnosť týchto algoritmov je možné overiť pomocou meraní úspešnosti udržania detekcie sledovaného objektu (Tab. 1) alebo pomocou sledovania chybného posunu stredovej polohy sledovaného objektu. Presnosť a spoľahlivosť sledovacieho algoritmu je možné ovplyvniť viacerými optimalizačnými metódami a úpravami podľa prístupu použitia daného algoritmu. Napríklad sledovanie tváre človeka si bude žiadať pokročilejšie techniky najmä z dôvodu zložitosti scény s viacerými tvárami, kde je podľa Zhang a Gomez (2013) nutné aby sa vzor pre sledovanie nezamieňal a neučil podobu ostatných tvári v scéne. Pri sledovaní objektu v multikamerovom prostredí je nutné uvažovať o prístupoch distribuovaného modelu sledovania, ktorý sa podľa Schrader et al. (2012) bude učiť vzor pre sledovanie z viacerých Acta InformaticaPragensia 93 uzlov systému. Pri sledovaní objektov, ktoré menia náhle smer alebo sa pohybujú vyššími rýchlosťami vzhľadom na záber je vhodné uvažovať o nasadení hlbokých neurónových sieti na sledovací algoritmus podobne ako definoval vo svojom prístupe Jin et al. (2013). Vzorka videa IVT VRT FragT BoostT SemiT BeSemiT L1T MILT VTD TLD Animácia 1 45 11 57 45 56 3 79 99 50 94 21 12 21 31 12 72 8 2 37 20 1 88 51 9 3 21 13 77 10 2 77 8 44 14 21 22 85 29 18 46 3 12 44 10 16 78 8 24 37 23 5 20 96 91 85 17 11 24 26 44 36 11 26 100 27 8 16 96 88 58 66 14 13 76 12 46 11 28 95 37 5 72 63 88 51 83 11 5 91 30 36 51 35 39 100 27 7 99 29 65 24 39 9 29 42 68 8 41 5 23 88 47 99 95 89 24 12 44 26 30 79 20 72 33 99 96 71 88 96 57 14 10 32 36 40 86 70 61 43 36 8 56 99 95 81 72 11 13 57 28 42.40 27.60 29.93 39.27 43.13 47.73 42.07 46.60 56.20 54.40 Animácia 2 Interiér Šport 1 Koncert 1 Koncert 2 Šport 2 Skákavý pohyb Auto Otáčanie hlavy Ľudia na ulici Ľudia v budove Mikročip Animácia 3 Exteriér Priemer Tab. 1. Úspešnosť detekcie sledovacích algoritmov podľa Wang et al. (2011). 3.1 3.1.1 Knižnice počítačového videnia OpenCV OpenCV (Open Source Computer Vision) je multiplatformová knižnica určená k programovaniu aplikácií počítačového videnia. OpenCV obsahuje funkcie pre spracovanie obrazu v reálnom čase, transformácie obrazu, analýzu videa, kalibráciu kamier, rekonštrukciu 3D obrazu, detekciu a sledovanie objektov, strojové učenie, multidimenzionálne hľadanie a rôzne doplnky pre tvorbu rozšírených grafických prostredí. Podľa Bradskiho a Kaehlera (2008) je zaujímavou možnosťou využitie výkonu grafickej karty pri realizácii počítačového videnia. V posledných verziách táto knižnica disponuje rozhraniami pre C++, C, Python a Java a je použiteľná aj v mobilných systémoch Android a iOS. 3.1.2 FastCV Knižnica počítačového videnia FastCV bola vyvíjaná firmou Qualcomm (2012), neskôr voľne sprístupnená. Medzi jej hlavné prednosti patria: funkcie pre spracovanie a transformáciu obrazu, detekcia, sledovanie, rozpoznávanie, 3D rekonštrukcia, funkcie pre využitie v rozšírenej realite, segmentácia, vyhľadávanie a vyspelý manažment pamäte. FastCV je primárne určené pre ARM platformy mobilných zariadení, kde dosahuje výrazne efektívnejšie a rýchlejšie spracovanie obrazu ako konkurenčné knižnice. 94 Cymbalák, Michalko, Jakab Obr. 2. Skúšobná aplikácia a zaťaženie při OpenCV vs FastCV s prístupom od Gravdala (2012). 4 Návrh hodnotiacej metriky v multikamerovom systéme Pre účely spracovania informácií o vlastnostiach sledovaného objektu v zábere kamery v čase t je dôležité poznať jeho aktuálne polohové súradnice x a y vzhľadom na záber, jeho výšku h a šírku w v zábere (Obr. 3) ale aj hodnotu dôveryhodnosti detekcie objektu d. Stav objektu O v čase t pre uzol multikamerového systému n sa môže vyjadriť ako vektor: , , , , (1) Hodnoty obsiahnuté v budú slúžiť na výpočet metriky a porovnávanie medzi jednotlivými uzlami v multikamerovom systéme. Matica tvorená vektormi , ... bude slúžiť pre výpočet predikcie metriky v čase t+1 na základe k predchádzajúcich stavov. Acta InformaticaPragensia 95 Obr. 3. Detekcia polohy a veľkosti objektov v čase t. Pre získanie aktuálnych informácií o polohe a vlastnostiach objektu bol v rámci riešenia využitý algoritmus TLD a jeho implementácie openTLD. Výstup informácií o polohe objektu je možné získať priamo z výstupného súboru openTLD aplikácie, ktorý sa priebežne dopĺňa. Každý riadok výstupu ma tvar F X Y W H D, kde F je poradie sledovanej snímky, X a Y je aktuálna horizontálna a vertikálna pozícia kotviaceho pixelu sledovaného objektu, W a H je pixelová šírka a výška sledovaného objektu a D je hodnota dôveryhodnosti detekcie, ktorá určuje na koľko percent je sledovaný objekt zhodný zo zdrojom. Ukážka výstupu sledovania OpenTLD C++ aplikácie s informáciami o polohe, veľkosti a dôveryhodnosti detekcie: F 489 490 491 492 493 X NaN 63 64 64 64 Y NaN 176 186 186 184 W NaN 75 75 75 75 H NaN 59 59 59 59 D 0.000000 0.748394 0.651912 0.620531 0.613741 Obr. 4. Experimentálne sledovanie objektov prostredníctvom implementácie OpenTLD pre Unix a Android. Pre účely porovnávania medzi jednotlivými uzlami systému a na ohodnotenie zdrojov videa na základe informácií o polohových vlastnostiach sledovaného objektu, je potrebné zaviesť hodnotiacu metriku, ktorá ohodnotí každý zdroj samostatne. Samotné hodnotenie by mohlo spočívať z troch zložiek: primárna zložka s polohou objektu vzhľadom na záber (Mp), 96 Cymbalák, Michalko, Jakab sekundárna zložka s veľkosťou objektu vzhľadom na záber (Mv) a terciálna zložka s dôveryhodnosťou detekcia podľa vzoru (Md). Primárna polohová zložka navrhovanej metriky by mala vytvárať hodnotenie na základe aktuálnej polohy kotviaceho bodu sledovaného objektu v zábere. Záber je potrebné rozdeliť na zóny, ktoré budú reprezentovať číselné hodnotenie. Na základe aktuálnych súradníc x a y bodu objektu sa výpočtom určí, v ktorej zóne bod leží a aké hodnotenie mu prislúcha. Jednotlivé zóny môžu mať tvar sústredných elíps alebo obsahovať okrajové zóny, ktoré by určovali smer odchodu alebo príchodu objektu zo záberu. Z hľadiska optimálnej výstupnej kompozície záberu je vhodné, aby objekt ležal čo najbližšie k zlatému rezu záberu a teda rozdelenia zón bolo odvodené z Fibonacciho špirály (Obr. 5). Obr. 5. Návrh zón záberu pre uzol systému s využitím optimálnej kompozície zlatého rezu. Finálna metrika zdroja n v čase t pozostávajúca zo zložiek Mp (hodnotenie polohy), Mv (hodnotenie veľkosti), Md (hodnotenie dôveryhodnosti) by sa mohla vyjadriť vo výslednom tvare: ∗ (2) Kde je celé číslo udávajúce číslo zóny detekcie v čase t, zložka udáva v tvare 1, pomer šírky wo sledovaného objektu k šírke celkového záberu wz v čase desatinného t: (3) Zložka udáva pomer dôveryhodnosti v tvare desatinného čísla 1, ktoré definuje percentuálnu zhodnosť sledovaného objektu so šablónou vzoru určenej k detekcii. Na základe pravidelného vyhodnocovania jednotlivých zdrojov hodnotiacou metrikou sa v čase t získa vektor hodnotenia všetkých n zdrojov v systéme: , Po výpočte maxima , … (4) výstupných hodnotení n zdrojov v čase t sa získa poradie zdroja k, ktoré určuje, ktorý zdroj videa sa má aktuálne vziať ako výstupný zdroj pre streaming videa. Acta InformaticaPragensia 97 Pre optimalizáciu časového oneskorenia medzi zistením zdroja s najvyšším ohodnotením a finálnym zobrazením výstupného zdroja videa u príjemcu je vhodné zaviesť predikciu ohodnotenia, ktorá by mohla inicializovať v čase t prepnutie zdroja videa na zdroj, ktorý by mal v čase t+1 získať najvyššie hodnotenie. V ideálnych podmienkach by tento prístup mohol zabezpečiť prepnutie zdroja ešte pred príchodom objektu do záberu a teda vymazať rozdiel medzi inicializáciou zmeny zdroja streamingu a skutočnou polohou sledovaného objektu v danom zábere. Predikčné mechanizmy na odhadnutie nasledujúceho ohodnotenia zdrojov by sa do celkového návrhu mohli integrovať buď globálne a to medzi mechanizmus výpočtu hodnotiacej metriky a riadiaci mechanizmus (Obr. 6). V tomto prípade by predikčný mechanizmus vzal do úvahy maticu obsahujúcu vektory k predchádzajúcich hodnotení ( ) jednotlivých n zdrojov: ⋯ ⋱ ⋯ ⋮ ⋮ (5) ⋮ Na základe tejto matice by globálny predikčný mechanizmus vytvoril nový predikovaný vektor hodnotení obsahujúci jednotlivé predikované hodnotenia uzlov systému pre n zdrojov v čase t+1: , (6) , … Obr. 6. Návrh umiestnenia globálneho predikčného mechanizmu. Ďalším spôsobom je možné predikčné mechanizmy integrovať na lokálnej úrovni medzi detekčný mechanizmus a mechanizmus výpočtu hodnotiacej metriky (Obr. 7). Pri tomto spôsobe by každý lokálny predikčný mechanizmus vzal do úvahy maticu obsahujúcu vektory k predchádzajúcich vlastností objektu (súradnice x a y , rozmery w a h a dôveryhodnosť d): ⋮ ⋮ ⋮ ⋮ ⋮ (7) 98 Cymbalák, Michalko, Jakab Na základe sa vytvorí lokálne pre každý zdroj n nový vektor obsahujúci predikované súradnice, veľkosť a dôveryhodnosť v čase t+1: , , , , (8) Obr. 7. Návrh umiestnenia lokálnych predikčných mechanizmov. Predikčné mechanizmy na lokálnej úrovni by mohli byť založené aj na metódach predikovania trajektórie pohybu podľa predchádzajúcich súradníc ako sú Kalmanov filter alebo rozšírený Kalmanov filter. Kalmanov filter (KF) sa používa na predikovanie nasledujúcej polohy na základe opisu pohybu poslednej pohybovej sekcie. Funk (2003) definuje, že model Kalmanovho filtra potrebuje poznať reprezentáciu sledovaného objektu v stavovom ponímaný. Alternatívnym prístupom pre zvýšenie presnosti predikcie je použitie rozšíreného Kalmanovho filtra (EKF), v ktorom funkcie stavu môžu byť aj v nelineárnej podobe. Presnosť EKF je použiteľná najmä pri problematických pohyboch s náhlou zmenou smeru pohybu sledovaného objektu (Obr. 8 ). Acta InformaticaPragensia 99 Obr. 8. Presnosť predikcie s využitím KF a EKF pri náhlych zmenách v prístupe Cuevasa , Zaldivara a Rojasa (2005). 5 Aplikácia návrhu a možnosti využitia V súčasnosti je navrhovaný systém v experimentálnej prevádzke a pripravený testovať zmeny v definícií metriky a v použití predikčných metód. Aplikácia riešenia pozostáva z prepojenie softvérového mixu s vytvoreným API, ktoré zabezpečuje prepínanie zdrojov streamingu v závislosti od informácií doručovaných mechanizmom pre výpočet metriky, ktorý vzchádza z lokálnych inštancií openTLD aplikácií. Táto experimentálna zostava umožňuje integrovať do systému okrem priamych káblových vstupov bežných kamier s nízkym oneskorením aj HTTP alebo RTP stream z IP kamier alebo mobilných streamingových aplikácií (Obr. 9). 100 Cymbalák, Michalko, Jakab Obr. 9. Experimentálne zapojenie systému v súčasnom stave. Využitie navrhovaného systému by mohlo byť široké, či už pri bezpečnostných systémoch, športových podujatiach, dopravnom dispečingu, vzdelávacích konferenciách alebo nasadení na monitorovanie výrobnej linky a podobne. Systém by mohol byť aplikovateľný na sústavu IP kamier v sieti, na mobilné snímacie zariadenia alebo na priamo zapojené lokálne snímacie zariadenia ako HD kamery a videomixážne pulty. Zaujímavou možnosťou je aplikovanie navrhovaného systému do prostredia inteligentných mobilných telefónov s integrovanou kamerou (Obr. 10). Acta InformaticaPragensia 101 Obr. 10. Koncepcia využitia riešenia s mobilnými zariadeniami. 6 Záver Práca sa v úvode venovala analýzou súčasných technológií a prístupov v oblasti prenosu multimediálneho obsahu, detekčných a sledovacích mechanizmov pre multikamerové systémy. Cieľom tejto analýzy bolo oboznámiť sa a porovnať jednotlivé metódy, technológie a prístupy, s pomocou ktorých by bolo možné zostaviť prediktívny systém pre riadenie streamingu na základe detekcie polohy sledovaného objektu v multikamerovom prostredí. Základný návrh systému počíta s využitím viacerých alternatív aplikácie streamingových technológií s rôznou pozíciou mechanizmu riadenia streamingu v rámci kompozície multikamerového systému, streamingového servera a mechanizmu prehrávania videa. Z hľadiska detekcie sa na základe porovnania jednotlivých algoritmov javil ako najspoľahlivejší sledovací algoritmus TLD pre lokálnu detekciu objektu vo videu v rámci jednotlivých uzlov systému. Výstup tohto algoritmu obsahujúci informácie o aktuálnej polohe sledovaného objektu a ďalších je vlastnostiach je vhodný ako vstup pre navrhnutú metriku hodnotenia jednotlivých zdrojov videa. Návrh systému taktiež predstavuje viacero spôsobov predikcie nasledujúceho hodnotenia zdroja videa, predikcie nasledujúceho vysielaného zdroja alebo predikcie očakávaného pohybu sledovaného objektu medzi jednotlivými uzlami multikamerového systému. V budúcnosti je potrebné definovať a optimalizovať metódy predikcie hodnotenia jednotlivých zdrojov, čo by malo spočívať v definovaní neurónovej 102 Cymbalák, Michalko, Jakab siete, respektíve Bayesovho klasifikátora a následne porovnanie spoľahlivosti predikcie v zostavenom riešení. Ďalším zaujímavým riešením pre rozšírenie tejto problematiky by sa mohlo javiť posielanie informácií o aktuálnej polohe a ďalších vlastnostiach sledovaného objektu formou pridania dodatočných hlavičiek a úpravy vybraného streamingového protokolu. Z hľadiska nasadenia a implementácie navrhovaného systému v prostredí mobilných zariadený by bolo potrebné optimalizovať jednotlivé streamingové, detekčné a sledovacie mechanizmy tak, aby pre ich spoľahlivú funkčnosť postačoval výkon inteligentného mobilného telefónu. Je však predpoklad, že v blízkej budúcnosti dosiahnu mobilné zariadenia nových výkonových limitov, ktoré nebudú mať problém s nasadením streamingového servera priamo na zariadenie, ktoré by zároveň okrem posielania streamu objekt vo videu detekovalo, hodnotilo v reálnom čase s veľmi krátkymi intervalmi výberu posudzovanej snímky videa. Poďakovanie Tento príspevok vznikol vďaka podpore v rámci operačného programu Výskum a vývoj, pre projekt: Univerzitný vedecký park TECHNICOM pre inovačné aplikácie s podporou znalostných technológií, kód ITMS: 26220220182, spolufinancovaný zo zdrojov Európskeho fondu regionálneho rozvoja. Podporujeme výskumné aktivity na Slovensku/Projekt je spolufinancovaný zo zdrojov EÚ. Zoznam použitých zdrojov Adam A., Rivlin E., Shimshoni I. (2006). Robust fragments-based tracking using the integral histogram. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 798–805). Akhshabi S., Begen A., Dovrolis C. (2011). An Experimental Evaluation of Rate-Adaptation Algorithms in Adaptive Streaming over http. In MMSys'11, USA. Babenko B., Yang M., Belongie S. (2009). Visual tracking with online multiple instance learning. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 983–990). Bradski G., Kaehler A. (2008). Learning OpenCV. Sebastopol: O'Reilly. Begen A., Akgul T., Baugher M. (2011). Watching Video over the Web. Part I, Streaming Protocols, Cisco. Collins R., Liu T., Leordeanu M. (2005) Online selection of discriminative tracking features. IEEE Transactions on Pattern Analysis and Machine Intelligence, 27(10), 1631–1643. Cuevas E., Zaldivar D., Rojas R. (2005). Kalman filter for vision tracking. FUDOCS, Technical Report B 05-12. Funk N. (2003). A Study of the Kalman Filter applied to Visual Tracking. Project for CMPUT 652. Gong, C. et al. (2012). The extended co-learning framework for robust object tracking. In Proceedings - IEEE International Conference on Multimedia and Expo (pp. 398-403). Grabner H., Bischof H. (2006). On-line boosting and vision. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 260–267). Grabner H., Leistner C., Bischof H. (2008). Semi-supervised on-line boosting for robust tracking. In Proceedings of European Conference on Computer Vision (pp. 234–247). Gravdal E. (2012). Augumented Reality and Object Tracking for Mobile Devices. Trondheim: NTNU. Jin, J. et al. (2013). Tracking with deep neural networks. In 47th Annual Conference on Information Sciences and Systems, CISS 2013. Kalal Z., Matas J., Mikolajczyk K. (2010). P-N learning: Bootstrapping binary classifiers by structural constraints. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 49–56). Kalal, Z., Mikolajczyk, K., Matas, J. (2012). Tracking-Learning-Detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34 (7), 1409-1422. Acta InformaticaPragensia 103 Kwon J., Lee K. (2010). Visual tracking decomposition. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 1269–1276). Mei X., Ling H. (2009). Robust visual tracking using l1 minimization. In Proceedings of the IEEE International Conference on Computer Vision (pp. 1436–1443). Mizerák T. (2010). Protokoly pro komunikaci klientu na platforme Flash. Brno: MUNI. O’Driscoll G. (2008). Next generation IPTV services and Technologies. Hoboken: Wiley. Qualcomm Inc. (2012). FastCV Library 1.1.1. Retrieved from https://developer.qualcomm.com/docs/fastcv/api/index.html. Ross D. et al. (2008). Incremental learning for robust visual tracking. International Journal of Computer Vision 77(1), 125–141. Schrader, S. et al. (2012). A distributed online learning tracking algorithm. In 12th International Conference on Control, Automation, Robotics and Vision (pp. 1083-1088). Stalder S., Grabner H., Van Gool A. (2009). Beyond semi-supervised tracking: Tracking should be as simple as detection, but not simpler than recognition. In Proceedings of IEEE Workshop on Online Learning for Computer Vision. Wang Q. et al. (2011). An Experimental Comparison of Online Object Tracking Algorithms. In Proceedings of SPIE: Image and Signal Processing Track. Zhang , T., Gomez, H.M. (2013). Technology survey on video face tracking. In Proceedings of SPIE - The International Society for Optical Engineering. Acta Informatica Pragensia 3(1), 2014, 104–112, DOI: 10.18267/j.aip.38 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers Approach to Hand Tracking and Gesture Recognition Based on Depth-Sensing Cameras and EMG Monitoring Ondrej Kainz1, František Jakab1 1 Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics, Technical University of Košice, Košice Letná 9, 042 00 Košice, Slovakia {ondrej.kainz, frantisek.jakab}@tuke.sk Abstract: In this paper, a new approach for hand tracking and gesture recognition based on the Leap Motion device and surface electromyography (SEMG) is presented. The system is about to process the depth image information and the electrical activity produced by skeletal muscles on forearm. The purpose of such combination is enhancement in the gesture recognition rate. As a first we analyse the conventional approaches toward hand tracking and gesture recognition and present the results of various researches. Successive topic gives brief overview of depth-sensing cameras with focus on Leap motion device where we test its accuracy of fingers recognition. The vision-SEMG-based system is to be potentially applicable to many areas of human computer interaction. Keywords: Depth-sensing camera, electromyography, gesture recognition, hand tracking, Leap Motion. Acta Informatica Pragensia 105 1 Introduction Contemporary technology allows us to transfer almost any component of the real world into the digital form. Nature of such a component can be not only static but also dynamic, e.g. whole body, arms or legs movement. Transfer to the digital form is only one essence of the whole story. Another important step for machine (in our case personal computer) is to recognize and identify an object. For purposes of motion tracking, device must be able to sense the changes in real time; this is enabled by specific sensors dependent on used technology. Motion tracking offers the ability to control the device. Approaches towards control and the advancement of their research have had virtually exponential nature. Modern sensors and technological advancements enable us to create sophisticated sensors that are able to precisely sense the environment and its changes. As we are part of this environment we are also subject of sensor monitoring. Human limbs such as hands or whole body have been used as a tool for control of machine through the recognition of specific patterns, as learnt by machine. In the following chapters we present standard approaches towards hand tracking and gesture recognition and propose a new approach realized by means of image processing and body signals monitoring. 2 Hand tracking and gesture recognition Gestures as such arise from a person's mental concept and are expressed through the motion of arms and hands. These expressions are then observed and recognized by the spectator (Pavlovic, Sharma, Huang, 1997). In our case the spectator is computational device that is able to recognize gestures through specific pre-learnt models. Two conventional approaches towards gesture recognition are free-hand tracking and glove-based tracking. Both of these approaches have in common the need for specific mathematical model. First approach, free-hand tracking, enables control without any mechanical devices directly attached to user; the only input here is based on image processing (Mazumdar, Talukdar, Sarma, 2013). Second approach, glove-based tracking, uses mechanical device fixed on hand with sensors that track the movement. This kind of tracking is not affected by surroundings and allows the usage of multiple sensors such as force sensor, accelerometer, gyroscope or bend sensor. As for the free-hand tracking Pavlovic, Sharma & Huang (1997) further define two main models. First, 3D hand-based models are based on 3D description of hand. Further divided into volumetric model, where hand/arm postures are analysed by synthesizing of 3D model of human hand while its parameters are modulated until compliance with real human hand is found, and skeletal model - comparable to volumetric model but this model deals with reduced set of equivalent joint angle parameters together with segment lengths. 3D-based model was used for sign language recognition by Mehrez & Jemni (2012) with recognition rate of 98.5 using 900 ASL. Second, appearance-based models, are not directly derived from 3D description of hand but are rather based on display of hands in sequence of images. Great numbers of such models use parameters that are derived from images in the templates such as contours and edges, image moments or image eigenvectors. 3 Depth-sensing cameras Hand gesture recognition has become widely implemented as one of the features offered to customers for computer control. Software tools that come with these devices have predefined 106 Kainz, Jakab tracking patterns for specific operating system. Specific tools that offer customization are generally available for development. Kinect by Microsoft is one of the most popular devices available on market among developers. This device was primarily intended for X-Box 360 video game console, few month after its release Microsoft announced Kinect for Windows. Kinect for Windows is a depth sensing and RGB camera – specifically it consists of depth camera, RGB camera, IR sensor, tilting motor and four microphones. Several tracking options are possible using Kinect: skeleton, face and hand tracking (Jana, 2012). For further specifications see Tab. 1. Due to its availability Kinect has become very popular in the area of research, mainly in the field of robotics (Hernández-Lópeza et al., 2012) and human-computer interaction. Other sorts of utilization were proposed as well – Changa, Chenb & Huang (2011) and GonzálezOrtega et al. (2014) pointed out possibility of its usage for physical rehabilitation to be successful. A different – and for us more interesting – research is the one of Dominio, Donadeo & Zanuttigh (2013) which resulted in hand gestures recognition using the extracted depth data. Another analogous area of gesture recognition is sign language recognition – several research papers dealing with this type of recognition provided effective and useful results (Sun C. el al., 2013), (Verma, Aggarwal, Chandra, 2013). Another successful product on the market that enables depth recognition is called Asus Xtion PRO LIVE, depth-sensing and RGB camera. Jiang, Liu & Matsumaru (2012) proved the ability of this device to recognize background and also hand in the real-time. Research showed the inability to recognize proper multi-touch functionality. Haggag et al. (2013) proved Kinect to be superior when compared to Xtion PRO. Identically to Kinect, it is a low cost device, for further specifications see Tab. 1. Designers of device called Leap Motion took another approach to depth sensing. Same as above mentioned is Leap Motion also equipped with depth sensing camera; however no additional features such as RGB camera or microphone are available. This device is also not focused on skeletal or face tracking; its principal use is aimed towards hand tracking and gesture recognition. Sabir et al. (2013) combined in their research Leap Motion with Kinect and were able to provide enhanced tracking and with six degrees of freedom - three axes for translation and the same for rotation, this research was aim to provide control for graphics system. Many other depth-sensing cameras solution are available, such as Creative Senz3D or SoftKinetic DS325, however both of these provide only small depth image size of QVGA (320x240). Distance (cm) Field of view (horizontal, vertical, diagonal) Sensor Depth image size Resolution Programming language support Microsoft Kinect 40 - 350 57°, 43° Asus Xtion PRO 80 - 350 58°, 45°, 70° Leap Motion 7 - 25 140° RGB, Depth, Microphone VGA (640x480) RGB, Depth, Microphone VGA (640x480) : 30 fps, QVGA (320x240): 60 fps SXGA (1280x1024) C++, C#, Java Depth SXGA− (1280 x 960) C++, C# VGA (640x480) N/A C++, C#, Java, JavaScript, Python Acta Informatica Pragensia 107 Dimensions (cm) 28 x 8 x 8 18 x 3.5 x 5 8x3x1 Tab. 1. Depth-sensing cameras comparison. 3.1 Hand tracking using Leap Motion Mobility, price and distance interaction range were factors that led us to select Leap Motion as a device to be tested for hand tracking purposes. Our focus was placed primary on accuracy of the Leap Motion device - first for one hand and latter for both hands. Tests were conducted in the laboratory environment under regular lightning conditions, such conditions are expected for regular usage. No smudges or any other obstacles that might disrupt the measurement were observed. For measurement was used official web tool Motion Dump from the developer. Hands were in horizontal position in height of approx. 16 centimetres from device, with interaction height set to just declared value. The goal of testing was to estimate the accuracy of the device. Results were collected from over 1500 samples per one measurement. As we can see from a Fig. 1 the best accuracy was achieved when one finger was used tracking with accuracy rate of 96.34%. Minor change in accuracy was observed when thumb was used for tracking. Minimum accuracy was achieved for the case of three fingers tracking with thumb. Tracking of two hands had poorer tracking for all the fingers. It should be noted that distance between fingers and position of hand and fingers, i.e. adduction or abduction/flexion or extension, had great significance in recognition. As demonstrated by Sabir el al. (2013) Leap Motion in combination with Kinect is suitable for usage in a 3D environment however its long-term usage as a replacement for mouse or keyboard is highly questionable. This device allows simple gesture recognition in default state it is not suitable for complex tasks. Further research on specific types of its utilization is to be conducted. 100,00% Accuracy 90,00% 80,00% 70,00% 60,00% 50,00% 40,00% 1 2 3 4 5 Number of fingers Without thumb With thumb Two hand recognition Fig. 1. One hand vs two hand recognition comparison. 4 Surface electromyography in hand gesture recognition Usage of depth-sensing cameras for detailed gesture recognition might be in some cases troublesome or even impossible. Primary issue is recognition of specific hand positions and recognition in non-laboratory environment. Usage of glove is more invasive and may be 108 Kainz, Jakab complex for handling. Bearing in mind all just stated we propose innovative approach, which combines depth-sensing cameras and EMG monitoring. 4.1 What is EMG? A term EMG is known since the 1943 when introduced by Weddell et al. for the description of clinical application – in this process the needle was used for the examination of skeletal muscles (Katirii, 2007). Phenomena of electromechanical coupling in muscle is utilized, more specifically deep invagination of muscle membrane inside the muscle cells enable conduction of electrical impulses in skeletal and cardiac cells, these are called t-tubules. When muscle contraction occurs it can be then graphically depicted as electromyogram and recoding is realized using electromyograph (Kumar, Mital, 1996). EMG enables diagnosis of some peripheral nervous system disorders. Traditional approach of EMG includes the usage of needle inserted into the muscle to enable recording. Less invasive or completely non-invasive approach is called surface electromyography (SEMG). Fig. 2 represents the difference between intramuscular and surface EMG. Sensor may be attached to specific muscles to monitor and provide capability for differentiation of the activity of the muscle. SEMG signal is non-linear and short-time stationary. Fig. 2. Surface vs Intramuscular EMG signal of medial gastrocnemius muscle Source: Garcia, Vieira (2011) 4.2 Related work Following section introduces current progress in research related to SEMG, its results were taken into consideration during vision-SEMG-system development; focal point is classification of recorded data. Luo, Wang, Ma (2006) used autoregressive model to describe SEMG and utilized model coefficients in order to implement recognition of motion patterns – as a classifier high-order neural network called Pi-Sigma is utilized. Focus of research was on the movement recognition and as one of the conclusions authors pointed out that proper position of electrodes placement play a very important role in the whole measurement process. Zhaojie, Honghai (2014) utilized Fuzzy Gaussian Mixture Models (FGMMs) for hand grasps and manipulation. Results of study show that as for the recognition rate (92.75 percent) these models outperform Gaussian Mixture Models and as likewise vector machine (SVM). Combination of linear and nonlinear measurements while utilizing adaptive neuro- Acta Informatica Pragensia 109 fuzzy inference system (ANFIS) was introduced by Gaoxiang et al. (2014) with pretty good accuracy of 99.1 percent. Prototype for mobile device control was proposed and implemented by Zhiyuan et al. (2014), this approach results with the accuracy of 95 percent while utilizing Bayes linear classifier (BLC) and dynamic time wrappings (DTW). 5 Vision-SEMG-based system Approach we take combines SEMG and depth-camera. Visual monitoring of hands realized, as proposed, by Leap Motion sensor device that is directly connected to the computer. Main drawback when using this device is requirement for a user to remain near the interaction zone, i.e. near computer. Hand and fingers position or general gestures were using functions available by Leap Motion API. Four disposable electrodes were utilized in SEMG monitoring, with Arduino microcontroller used to record the signals. Arduino enabled us to utilize its capabilities – we designed shield that was directly attached to microcontroller, this shield serves as an amplifier of EMG signals and connects Arduino board to electrodes via 3.5 mm jack. Electrodes were directly attached to a skin, conductive gel was used as to enhance connection. All the processing of signal is accomplished on data processing machine, i.e. personal computer. Fig. 3. SEMG and Leap Motion. Classification of specific patterns for SEMG monitoring is realized by utilization of neural networks. For our system we selected Deep belief network (DBN). This network is type of deep neural network with multi hidden layers connected together while using unsupervised algorithm that trains the network layer after layer. Layer is using a restricted Boltzmann 110 Kainz, Jakab machine (RBM). Training itself is carried on in unsupervised way. Future development will focus on combination of DBN and hidden Markov model (HMM). As analysed by Zheng et al. (2014) utilization of DBN shows fine accuracy, however the very same research concluded better results while utilizing DBN-HMM. Research was focused on electroencephalography (EEG) reading, while in our case we use it for EMG – nevertheless accuracy was analogical as presented by authors. We have developed and tested rudimentary system with accuracy of 86 percent – hand gasp. When implemented together with depth camera accuracy of 95 percent was achieved. Both of these monitoring devices were first designed and tested separately. Hand as detected by depth camera and signal from SEMG electrodes were deployed as a whole system for hand gesture monitoring as depicted in Fig. 3. This system may be used for tracking of one hand only. When monitoring specific muscles determined hand or even fingers movement is enabling us to track gestures, for instance for monitoring of forearm flexion or extension (Fig. 4). Together with Leap Motion recognition rate is sufficient enough for monitoring of virtually all gestures with high certainty. Monitoring of SEMG and visual tracking using Leap Motion can be further used for other purposes of non-invasive hand tracking and gesture recognition, e.g. use for sign language recognition or wireless machine control. Fig. 4. Forearm flexor/extensor electrode placement with Leap Motion tracking. 6 Conclusion and future works This study presented a new hand tracking approach for gesture recognition. This approach is indented for human computer interaction using SEMG technique in combination with visual-based tracking system with depth recognition. Monitoring is achieved through the hand muscles EMG signals tracking and visual image detection of hand movement. Leap Motion device proved ability to effectively recognize gestures, however issues with continuous finger tracking and certain hand positions were observed. This system is supposed to overcome shortcomings of solely visual-based system where tracking of hand is not always recognized due obstacles – e.g. hand covered by hand. We expect utilization of SEMG system in many areas. Next stage of project is to design a wireless armband that will include sensors for SEMG monitoring, this might allow usage of solely SEMG device without the need of utilizing Leap Motion. Another aim is to develop such device in accordance with WBAN standard. Acta Informatica Pragensia 111 Acknowledgement Research described in the paper was supervised by Assoc. Prof. Frantisek Jakab, PhD., Computer Networks Laboratory at DCI FEEI TU in Košice. We support research activities in Slovakia/This project is being co-financed by the European Union. Paper is the result of the Project implementation: University Science Park TECHNICOM for Innovation Applications Supported by Knowledge Technology, ITMS: 26220220182, supported by the Research & Development Operational Programme funded by the ERDF. References Changa, Y.-J., Chenb, S.-F., Huang, J.-D. (2011). A Kinect-based system for physical rehabilitation: A pilot study for young adults with motor disabilities. Research in Developmental Disabilities, 32(6), 2566–2570. doi: j.ridd.2011.07.002 Dominio, F., Donadeo, M., Zanuttigh, P. (2013). Combining multiple depth-based descriptors for hand gesture recognition. Pattern Recognition Letters, in press, doi: j.patrec.2013.10.010 Gaoxiang, O., Xiangyang, Z., Zhaojie, J., Honghai, L. (2014). Dynamical Characteristics of Surface EMG Signals of Hand Grasps via Recurrence Plot. IEEE Journal of Biomedical and Health Informatics, 18(1), 257–265. doi: 10.1109/JBHI.2013.2261311. Garcia M.A. C.,Vieira T.M. M. (2011) Surface electromyography: Why, when and how to use it. Revista Andaluza de Medicina del Deporte, 10(6), 17-28 González-Ortega, D., Díaz-Pernas, F.J., Martínez-Zarzuela, M., Antón-Rodríguez, M. (2014). A Kinect-based system for cognitive rehabilitation exercises monitoring. Computer Methods and Programs in Biomedicine, 113(2), 620–631. doi: j.cmpb.2013.10.014 Haggag, H., Hossny, M., Filippidis, D., Creighton, D., Nahavandi, S., Puri, V. (2013). Measuring depth accuracy in RGBD cameras. 7th International Conference on Signal Processing and Communication Systems (pp. 1-7). doi: 10.1109/ICSPCS.2013.6723971 Hernández-Lópeza, J.-J., Quintanilla-Olveraa, A.-L., López-Ramíreza, J.-L., Rangel-Butandaa, F.-J., IbarraManzanoa, M.-A., Almanza-Ojedab, D.-L. (2012). Detecting objects using color and depth segmentation with Kinect sensor. Procedia Technology, 3, 196-204. doi: j.protcy.2012.03.021 Jana, A. (2012). Kinect for Windows SDK Programming Guide. Birmingham: Packt Publishing Ltd. Jiang, Y., Liu, Y., Matsumaru, T. (2012). Applying infrared radiation image sensor to step-on interface: Touched point detection and tracking, IEEE/SICE International Symposium on System Integration (pp. 752-757). doi: 10.1109/SII.2012.6427302 Katirii B. (2007) Electromyography in Clinical Practice: A Case Study Approach. Philadelphia: Mosby Elsevier. Kumar S., Mital A. (1996). Electromyography in Ergonomics. London: T J Press. Luo Z., Wang F., Ma W. (2006). Pattern Classification of Surface Electromyography Based on AR Model and High-order Neural Network. Proceedings of the 2nd IEEE/ASME International Conference on Mechatronic and Embedded Systems and Applications (pp. 1-6), doi: 10.1109/MESA.2006.296982 Mazumdar, D., Talukdar, A.K. & Sarma, K.K. (2013). Gloved and free hand tracking based hand gesture recognition. 1st International Conference on Emerging Trends and Applications in Computer Science (pp. 197-202). doi: 10.1109/ICETACS.2013.6691422 Mehrez, B., Jemni, M. (2012). 3D Motion Trajectory Analysis Approach to Improve Sign Language 3D-based Content Recognition. Proceedings of the International Neural Network Society Winter Conference (13 vol., pp. 133-143). doi: 10.1016/j.procs.2012.09.122 Pavlovic, V.I., Sharma, R., & Huang, T.S. (1997). Visual interpretation of hand gestures for human-computer interaction: a review. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7), 677 – 695., doi: 10.1109/34.598226 112 Kainz, Jakab Sabir, K., Stolte, C., Tabor, B., O'Donoghue, S.I. (2013). The Molecular Control Toolkit: Controlling 3D molecular graphics via gesture and voice. IEEE Symposium on Biological Data Visualization (pp. 49-56), doi: 10.1109/BioVis.2013.6664346 Sun, C., Zhang, T., Bao, B.-K., Xu, C., Mei, T. (2013). Discriminative exemplar coding for sign language recognition with Kinect. IEEE Transactions on Cybernetics, 43(5), 1418-1428. doi: 10.1109/TCYB.2013.2265337 Verma, H.V., Aggarwal, E., Chandra, S. (2013). Gesture recognition using kinect for sign language translation. IEEE Second International Conference on Image Information Processing (pp. 96-100). doi: 10.1109/ICIIP.2013.6707563 Zhaojie, J., Honghai L. (2014). Human Hand Motion Analysis With Multisensory Information. IEEE/ASME Transactions on Mechatronics, 19(2), 456–466. doi: 10.1109/TMECH.2013.2240312 Zheng, W.-L., Zhu J.-Y., Peng Y., Lu, B.-L. (2014). EEG-Based Emotion Classification Using Deep Belief Networks. IEEE International Conference on Multimedia & Expo (ICME) Zhiyuan, L., Xiang, Ch., Qiang, L., Xu, Z., Ping, Z. (2014). A Hand Gesture Recognition Framework and Wearable Gesture-Based Interaction Prototype for Mobile Devices. IEEE Transactions on HumanMachine Systems, 44(2), 293 – 299. doi: 10.1109/THMS.2014.2302794 Acta Informatica Pragensia 3(1), 2014, 113–124, DOI: 10.18267/j.aip.39 Online: aip.vse.cz Sekce / Section: Recenzované stati / Peer-reviewed papers Simulácia PID regulátora v programovom prostredí Matlab Simulation of PID Controller in the Programming Environment Matlab Štefan Koprda1 1 Katedra informatiky, Fakulta prírodných vied, Univerzita Konštantína Filozofa v Nitre Trieda A. Hlinku 1, 949 74 Nitra [email protected] Abstrakt: Článok sa zaoberá problematikou modelovania spojitých systémov. Pre simuláciu regulátora PID sme použili prostredie Matlab. Cieľom príspevku je oboznámiť sa s problematikou simulácie základných regulátorov PI PD a v neposlednom rade aj PID. Riešená problematika má v konečnom dôsledku priniesť odbornej verejnosti jednoduchý prehľad ako nasimulovať základné druhy regulátorov v prostredí Matlab. V článku je ako nástroj na modelovanie dynamických systémov použitý programový systém Matlab vyvinutý firmou Math Works. V súčasnosti má tento Software široké uplatnenie v rôznych oblastiach vedy a techniky. V teórii automatického riadenia sa stáva dokonca jedným z najpoužívanejších programových prostriedkov vo svete. Matlab tak ako každý iný programový prostriedok umožňuje vyjadriť niektoré myšlienky viacerými spôsobmi. Výhodou prostredia Matlab je možnosť pracovať s blokmi podobnými blokom bežne používaným v schémach pre regulačnú techniku. Dynamický systém, ktorý potrebujeme modelovať je možné zostaviť zo štandardných blokov. Tie sú preddefinované v knižniciach Simulinku a jednoduchým kopírovaním ich môžeme aplikovať priamo v Matlabe. Klíčová slova: PID regulátor, Modelovanie, Matlab Simulink, Spojitý systém. Abstract: This paper deals with the problem of modelling continuous systems. For simulate a PID controller, we used virtual environment Matlab. The goal of this article is to give information about the topic of the basic regulators PI PD simulation and PID too. Eventually, solved issues have to bring to professionals simple overview of how to simulate fundamental regulators’ types in Matlab enviroment. In this paper is like a tool for modelling of dynamic systems applied Matlab. Matlab was developed by The Math Works Inc. This software has a wide application in various fields of science and technology. In the theory of automatic control is becoming even one of the most used software tools in the world. MATLAB just like any other simulation program means allow to express some thoughts in several ways. The advantage of Matlab is the opportunity to work with blocks of similar blocks commonly used in schemes for control technology. Dynamic systems which need to be modelled can be assembled from standard blocks. These are predefined in libraries Simulink and with using simple copying them can be applied their directly in Matlab. Keywords: PID controller, Modelling, Matlab Simulink, Discrete system. 114 Koprda 1 Úvod Modelovanie systémov je činnosť, ktorá umožňuje uvažovať o reálnom svete na základe získaných poznatkov a tak ho cieľavedome ovplyvňovať. Pod pojmom systém obvykle rozumieme abstrakciu reality, pričom sa zameriavame len na tie skutočnosti, ktoré sú relevantné pre naše skúmanie. Modelovaný systém má určitú štruktúru, teda sa skladá zo zložiek (prvkov alebo entít systému), medzi ktorými existujú isté väzby, vzťahy alebo relácie. V dynamickom systéme sa môžu meniť väzby, ale i množina prvkov systému (Balogh et al., 2012). Systém teda definujeme ako objekt, už reálne existujúci alebo v abstraktnom význame, ktorý chceme skúmať, pričom sa počas svojej existencie môže vyvíjať a spolupracovať s inými systémami, ktoré tvoria jeho okolie (Backlund, 2000). Dôležitým aspektom je požiadavka, aby sa s modelom dalo experimentovať, a to často aj v reálnom čase. Proces experimentovania, v ktorom skúmame vlastnosti modelu, alebo jeho interakciu s okolitým svetom, je často jediný možný spôsob, ako získať aspoň kvalitatívne nové poznatky o dynamike a štruktúre analyzovaného, alebo projektovaného systému (Neuschl, 1988). Proporcionálne-integračne-derivačné (PID) ovládanie je tradičná metóda lineárneho riadenia použitá v mnohých aplikáciách (Prodic, 2002). Regulátor PID je široko používaný pre priemyselnú automatizáciu úloh a regulovanie tepelného komfortu vykurovania a chladenia v aplikáciách. (Ardehali, 2004) 2 Automatizácia a regulácia v spojitých systémoch Riadenie je činnosť, pri ktorej sa hodnotia a spracúvajú informácie o riadenom objekte alebo procese a podľa nich sa ovládajú príslušné zariadenia tak, aby sa dosiahol daný cieľ (Krčula, 1982). Je to pôsobenie riadiaceho systému na riadený systém. Ak sa uskutočňuje nejakým zariadením samočinne, hovoríme o automatickom riadení. Otvorený systém automatického riadenia, čiže riadenie v otvorenej slučke je také riadenie, kde nie je spätná kontrola ani vplyvu riadiacich zásahov cez vektor vstupných veličín u(t), ani vplyvu vektora poruchových veličín d(t) na vektor výstupných (riadených) veličín y(t). Takéto riadenie (bez spätnej väzby od riadeného k riadiacemu systému) nazývame ovládaním. Môžeme ho použiť iba tam, kde vznik poruchových veličín je málo pravdepodobný. Regulácia je udržiavanie regulovaných veličín na vopred stanovených hodnotách. Skutočné hodnoty sa zisťujú meraním a porovnávajú sa so žiadanými hodnotami. Podľa odchýlok, ktoré sú mierou presnosti regulácie sa zasahuje do riadeného procesu tak, aby tieto odchýlky boli minimálne. Ak túto činnosť vykonáva človek, hovoríme o ručnej regulácii, ak sa uskutočňuje samočinne nejakým zariadením, hovoríme o automatickej regulácii. Regulovaná sústava je zariadenie, na ktorom sa uskutočňuje regulácia a regulátor je zariadenie, ktoré samočinne uskutočňuje reguláciu (Vítek, 1988). Acta Informatica Pragensia 115 Regulácia sa uskutočňuje vždy v regulačnom obvode: Obr. 1. Úplná bloková schéma regulačného obvodu. w - poruchová veličina e - regulačná odchýlka u - akčná veličina h - riadiaca veličina y - výstupná regulovaná veličina 3 Proporcionálno-integračno-derivačný regulátor (PID regulátor) Regulátor je zariadenie, ktoré sa stará, aby daný systém automaticky pracoval a fungoval v požadovanom rozsahu hodnôt. Riadeným systém môže byť napríklad motor, elektromotor, vykurovanie, klimatizácia, chemický proces atď. (Dorčák et al., 2006). Jeho vlastnosti vyjadruje súčet vlastností jednoduchých regulátorov P, I a D. Tomu zodpovedá jeho rovnica (Lukáč, Hrubý, 2005): t 1 det yt P et et dt Td Ti dt 0 (1) Veľkosť každej zložky je možné samostatne nastavovať, to znamená P – pásmo proporcionality, Ti – integračnú časovú konštantu a Td – derivačnú časovú konštantu. Pre kvantitatívne vyjadrenie platí: 116 Koprda zväčšenie vplyvu proporcionálnej zložky dosiahneme zväčšením zosilnenia, alebo zúžením pásma proporcionality, zväčšenie vplyvu integračnej zložky dosiahneme zmenšením integračnej časovej konštanty, zväčšenie vplyvu derivačnej zložky dosiahneme zmenšením derivačnej časovej konštanty. Zväčšením derivačnej zložky zlepšíme stabilitu regulačného obvodu, kým integračná zložka nám stabilitu zhorší. Regulátor vznikne paralelným spojením členov P, I a člena D. Uvedený združený regulátor pracuje bez trvalej regulačnej odchýlky a možno ho hodnotiť ako najdokonalejší spojitý regulátor. Prenosová funkcia regulátora: 1 G R s P 1 Td s Ti s (2) Obr. 2. Prechodová charakteristika a schéma PID regulátora. PID regulátor je vhodný všade tam, kde vyhovuje regulátor PI. Oproti regulátoru PI je rýchlejší, takže lepšie tlmí rýchle prekmity regulovanej veličiny, vstupujúcej obzvlášť pri častých poruchách do regulovanej sústavy. Kvalita procesu regulácie je funkciou parametrov P, Ti a Td PID regulátora. Môžeme ich navrhnúť tak, aby sme podľa zvoleného kritéria dosiahli najlepšiu možnú kvalitu regulácie. Určovanie optimálnych parametrov regulátorov je relatívne zložitá a namáhavá práca. Preto sa hľadali jednoduché algoritmy, často aj na úkor ich všeobecnej platnosti a presnosti riešenia. Medzi takéto jednoduché algoritmy patrí napr. metóda optimálneho modulu a experimentálna metóda Zieglera – Nicholsa (Tomas, 2004). Výhody PID regulátora: vysoká kvalita regulácie, najmä statických sústav. Nevýhody PID regulátora: veľké nároky na regulátor, zdĺhavé manuálne nastavovanie regulačných parametrov. Acta Informatica Pragensia 117 Analýza spojitého regulačného obvodu s regulátorom PID 3.1 Schémy procesov a ich blokové schémy poskytujú možnosť kvalitatívneho porozumenia ich funkcii. Za účelom kvantitatívneho vyjadrenia vlastností procesov sa využívajú matematické opisy. Tieto opisy sa nazývajú matematické modely. Matematický model procesu je vlastne matematickou abstrakciou reálneho procesu. V tejto práci ako moduly budeme používať regulačný obvod. Zjednodušenie výpočtu dynamických vlastností systémov a zložitých členov sa dá uskutočniť ich rozdelením na subsystémy. Regulačný obvod sa rozdeľuje na regulovanú sústavu S a regulátor R, čo umožňuje k danej sústave priradiť regulátor o takých dynamických vlastnostiach, aby regulačný obvod ako celok mal požadované fyzikálne a prevádzkové vlastnosti. PID má výstupný signál úmerný vstupnému signálu, jeho integrálu a derivácii. Diferenciálna rovnica PID regulátora má preto tvar: r x t r x t dt y t r x Ty T y ⋯ (3) Prenos PID regulátora je: 1 ⋯ (4) PID regulátor dostaneme paralelným spojením PI D regulátorov. Je to znázornené na obrázku 3. Vlastnosti PID regulátora: je stredne rýchly, dokáže odstrániť regulačnú odchýlku na 0, nie je náchylný na kmitanie, je najkvalitnejší. Obr. 3. PID regulátor. PID regulátor pracuje takto: Najprv pôjde zložka D, je najrýchlejšia, a preto dokáže najviac stiahnuť regulačnú odchýlku. Potom pôjde zložka P, aby sa regulátor nerozkmital a potom I odstráni regulačnú odchýlku na 0. Je vhodný všade tam, kde vyhovuje PI. Oproti PI regulátoru je rýchlejší, takže úplne tlmi rýchle prekmity regulovanej veličiny. Pri modelovaní simulácií sme použili statickú sústavu 2. rádu. Prenosová funkcia je: F 2s 1 5s 3 (5) 118 Koprda Najskôr si ukážeme správanie PID regulátora v regulačnom obvode bez poruchovej veličiny W. Schéma – modul je zobrazený na obrázku 4. Obr. 4 Regulačný obvod s PID regulátorom. Výsledky simulácie sú na nasledujúcich obrázkoch 5 a 6. Obr. 5. Výstupný priebeh regulovanej sústavy s PID. Acta Informatica Pragensia 119 Obr. 6. Priebeh regulačnej odchýlky. Zo simulácie možno vyvodiť záver, že PID regulátor lepšie tlmí rýchle prekmity regulovanej veličiny. V ďalšom kroku si ukážeme ako sa správa regulačný obvod s PID regulátorom po zásahu poruchovej veličiny W. Pre tento prípad sme opäť použili sústavu 2. rádu. Schéma model zapojenia je na obrázku 7. Obr. 7. Regulačný obvod s PID regulátorom po zásahu poruchovej veličiny W. 120 Koprda Výsledky simulácie sú na nasledujúcich obrázkoch 8 a 9. Obr. 8. Výstupný priebeh regulovanej sústavy po zásahu poruchovej veličiny W. Obr. 9. Priebeh regulačnej odchýlky po zásahu poruchovej veličiny W. Acta Informatica Pragensia 121 Pri modelovaní regulačného obvodu sme si zvolili regulátor PID. Tento regulátor sme následne zapojili do regulačného obvodu. Regulovanou sústavou bola sústava 2. rádu. Prenos sústavy bol nasledovný: F 2s 1 5s 3 (6) Simulácia s PID regulátorom bola robená pri zásahu poruchovej veličiny a bez nej. Odsimulovaný PID regulátor sme porovnávali s regulátormi typu PI A PD, ktorých priebehy uvádzame na obrázkoch 10 a 12. Priebehy na obrázkoch zobrazujú vlastnosti regulátorov bez pôsobenia poruchovej veličiny. Na obrázku 11 sa nachádza priebeh regulačnej odchýlky PI regulátora. Ako vidno z grafického priebehu PI regulátor dokáže odstrániť regulačnú odchýlku na 0. PI regulátor sa vyznačoval tým, že úplne odstránil regulačnú odchýlku. Spravidla vyhovujúcim spôsobom odstraňuje poruchy vstupujúce do regulovanej sústavy a vo väčšine prípadov zlepšuje stabilitu regulačného obvodu. Je viac náchylný na kmitanie. Regulátor PI sa najviac používa pri regulácii kmitavých sústav druhého a vyššieho rádu. Čím je rád sústavy vyšší, tým viac musíme zmenšovať zosilnenie, poprípade zväčšovať časovú konštantu T. Na základe simulácie platí, že proporcionálno-derivačný-regulátor je vhodný všade tam, kde vyhovuje regulátor P. Jeho prednosti sú väčšia rýchlosť regulácie, čo sa prejavuje potlačením rýchlych prekmitov regulovanej veličiny, kedy sú časté poruchy vstupujúce do regulovanej sústavy. PD regulátor sa vyznačuje tým, že nieje tak náchylný na kmitanie, ale nevie odstrániť regulačnú odchýlku na 0. Na obrázku 13 sa nachádza priebeh regulačnej odchýlky PD regulátora. PID regulátor bol odsimulovaný znovu s poruchovou veličinou a bez nej. Možno povedať, že je vhodný všade tam, kde vyhovuje PI. Oproti PI regulátoru je rýchlejší, takže úplne tlmí rýchle prekmity regulovanej veličiny. 122 Koprda Obr. 10. Výstupný priebeh regulovanej sústavy s PI regulátorom. Obr. 11. Priebeh regulačnej odchýlky s PI regulátorom. Acta Informatica Pragensia 123 Obr. 12. Výstupný priebeh regulovanej sústavy s PD regulátorom. Obr. 13. Priebeh regulačnej odchýlky s PD regulátorom. 124 Koprda 4 Záver Hlavnou úlohou bolo úvodné znázornenie modelovania a simulovania v programe Simulink systému MATLAB. Pre názornosť som funkcie opisujúce dynamické deje vyjadril najskôr všeobecne a potom som priebehy týchto funkcií odsimuloval v Simulinku programu MATLAB. Modelovanie a následná simulácia v tejto práci bola robená hlavne preto, aby si študenti pri výučbe ľahšie vedeli predstaviť činnosť jednotlivých regulátorov zapojených v regulačných obvodoch. Z nasimulovaných priebehov možno vyvodiť nasledovné závery. PI regulátor je najrozšírenejším kombinovaným regulátorom, lebo má takmer univerzálne použitie. Dôvodom je to, že nie je príliš zložitý, úplne odstraňuje regulačnú odchýlku a zlepšuje stabilitu regulačného obvodu. Najviac sa používa na reguláciu kmitavých sústav druhého a vyšších rádov. Čo sa týka použitia regulátora pre reguláciu bežných fyzikálnych veličín je najvhodnejší na reguláciu teploty, výšky hladiny, otáčok, tlaku plynov, vlečnú reguláciu a servomechanizmy. PD regulátor pracuje s trvalou regulačnou odchýlkou. Regulátor vznikne paralelným spojením člena P a D. Vhodnou voľbou časovej konštanty je niekedy možné znížiť rád regulovanej sústavy a zvýšiť tak stabilitu regulačného obvodu. PID regulátor pracuje bez trvalej regulačnej odchýlky a možno ho hodnotiť ako najdokonalejší spojitý regulátor. Nevýhodou PID regulátora je zdĺhavé nastavovanie regulačných parametrov. Zoznam použitých zdrojov Ardehali, M. M., Saboori, M, Teshnelab, M. (2004). Numerical simulation and analysis of fuzzy PID and PSD control methodologies as dynamic energy efficiency measures. Energy Convers Manage, 45(13–14), 1981–92. Backlund, A. (2000). The definition of system. Kybernetes, 29(4), 444–451. Balogh, Z., & Klimeš, C. (2012). Modelovanie procesov pomocou Petriho sietí. Nitra: Univerzita Konštantína Filozofa. Dorčák, Ľ. Terpák, J., & Dorčáková, F. (2006). Teória automatického riadenia: Spojité lineárne systémy. Košice: TU Košice. Krčula, J. (1982). Automatizácia. Bratislava: Príroda. Lukáč, O., & Hrubý, D. (2005). Simulácia dynamického systému plášťového výmenníka tepla. Acta Technologica Agriculturae, 6(4), 98-100. Neuschl, Š. et al. (1988). Modelovanie a simulácia. Bratislava: Alfa. Prodic, A., Maksimovic, D. (2002). Design of a digital PID regulator based on look-up tables for control of highfrequency dc–dc converters. In Proceedings of IEEE Workshop on Computers in Power Electronics (pp. 18–22). Tomas, B. (2004). Ziegler-Nichols Closed Loop Tuning. Retrieved from http://www.chem.mtu.edu/~tbco/cm416/zn.html Vítek, V. et al. (1988). Automatizace a robotizace. Praha: VŠZ. Acta Informatica Pragensia 3(1), 2013, 125–127, DOI: 10.18267/j.aip.40 Online: aip.vse.cz Sekce / Section: Knižní recenze / Book reviews Digitální demence Digital dementia Václav Řezníček1 1 Katedra systémové analýzy, Fakulta informatiky a statistiky, Vysoká škola ekonomická v Praze nám. W. Churchilla 4, 130 67 Praha 3 [email protected] Abstrakt: Tento článek je recenzí knihy Manfreda Spitzera „Digitální demence: jak připravujeme sami sebe a naše děti o rozum”, která byla v českém jazyce vydána v roce 2014 vydavatelstvím Host. Klíčová slova: Digitální demence, Manfred Spitzer, recenze, technologie, digitální média, myšlení. Abstract: This article is review of the Manfred Spitzer´s book “Digital dementia: How to make ourselves and our children fool”, which was published in Czech language by Host in 2014. Keywords: Digital dementia, Manfred Spitzer, review, technology, digital media, thinking. 126 Řezníček 1 Recenze knihy Spitzer, M. (2014). Digitální demence: jak připravujeme sami sebe a naše děti o rozum. 1. vydání. Brno: Host. 341 s. ISBN 978-80-7294-872-7. „Digitální demence se vyznačuje především narůstající neschopností využívat duševní výkony v plném rozsahu a ovládat je, tzn. myslet, chtít, jednat – při vědomí, co se právě děje, kde jsme a vposledku také kdo jsme.“ (Spitzer, 2014, str. 266) Kniha Digitální demence, kterou napsal německý psychiatr Manfred Spitzer (2014), presentuje výsledky analýzy vlivu současných digitálních médií a technologií, tedy televizí, počítačů, mobilních telefonů apod., na mozek a duševní výkonnost člověka. U nás tato monografie s původním názvem Digitale Demenz: Wie wir uns und unsere Kinder um den Verstand bringen vyšla v překladu Františka Ryčla necelé dva roky po jejím uvedení v Německu. Spitzer vystudoval medicínu, psychologii a filosofii. Dnes je významným německým badatelem v oblasti neurovědy. Po období „počítačového fanatismu“ druhé poloviny dvacátého století, kdy byli někteří jeho kritici označováni za „kacíře“, nepřátele informatiky či snad dokonce pokroku obecně, možno vzpomenout Josepha Weizenbauma, se otevírá prostor pro kritickou reflexi kontextu informatizace. Uvedenou Spitzerovu knihu by šlo mezi takové kritické počiny rovněž zařadit. Dle Spitzera doposud neexistují nezávislé studie, které by prokazovaly pozitivní účinek počítačů na učení a duševní výkon, přesněji řečeno lze pochybovat o nezávislosti těch studií, které k dispozici máme. Zde se odvolává na slova Uwe Afemanna (2011), jenž ve svém článku Ein Laptop macht noch keine Bildung, konstatuje, že „skoro všechny studie týkající se úspěšnosti učení za využití počítačů ve škole iniciovaly a sponzorovaly takřka bez výjimky počítačové firmy a telefonní společnosti.“ Spitzer naproti tomu presentuje množství výzkumů, které by nás měly spíše znepokojovat než nechávat klidnými a bezmezně optimistickými, a opřen o fakta upozorňuje, že digitální média vedou potenciálně k tomu, že mozek méně používáme a tím klesá jeho výkonnost. Podle Spitzera byly prokázány negativní účinky nejen, pokud jde o myšlení, ale i, pokud jde o vůli, emoce a sociální chování. Co je to a proč digitální demence? Jak Spitzer (2014, str. 19) poznamenává: „Demence je více než jen zapomnětlivost. A v případě digitální demence mi proto jde o více než jen o fakt, že se zejména mladí lidé zdají být stále zapomnětlivější, na což poprvé poukázali korejští vědci v roce 2007. Jedná se víceméně o duševní výkonnost, myšlení, schopnost kritiky, o orientaci v houštině informační záplavy. Pokud pokladní sčítá na kalkulačce 2 + 2 a nevšimne si, že výsledek 400 je zaručeně nesprávný, pokud NASA pošle do háje (respektive do nekonečného vesmíru) nějaký ten satelit, protože nikdo nezaznamenal, že palce a míle nejsou totéž jako centimetry a kilometry, nebo pokud se bankéř přepočítá o rovných 55 miliard eur, to vše vposledku znamená jen to, že už nikdo nemyslí současně s technikou.“ Hovoří se o tendování k povrchnosti a o poklesu hloubky zpracování informace, a sice právě díky mediím (v čele s internetem) a jimi zjednodušenému přístupu k informacím, jak o tom píše kupříkladu Carr (2011) příznačně nazývající svůj titul The Shallows nebo rakouský filosof Liessmann (2009) upozorňující na rostoucí averzi k myšlení a porozumění, kterou dává dále (mimo uvedené) do souvislosti s komodifikací a instrumentalizací vědění (znalostí). Spitzer (2014, str. 64-65) z pozice své odbornosti vysvětluje, že „co se s příchozí informací v našem mozku děje, určujeme tím, jestli ji zpracováváme jen povrchně, nebo se jí věnujeme důkladně. To vysvětluje účinek hloubky zpracování na ukládání: pokud se nějakým věcným obsahem Acta Informatica Pragensia 127 zabývám důkladně, všechny tyto aspekty a vlastnosti budou zachyceny různými oblastmi mozku. Toto intenzivní zpracování na základě všech možných aspektů ovlivňuje změnu četných synapsí a tím lepší uložení dotyčného obsahu. …Tato myšlenka samozřejmě platí také obráceně: čím povrchněji se nějakým věcným obsahem zabývám, tím méně synapsí se mi v mozku aktivuje, což má za následek, že se méně naučím.“ Využívání moderních technologií a digitálních médií vede k apatii vůči vštěpování si vědomostí (k lenosti), neboť máme pocit, že si vše potřebné můžeme snadno tzv. „najít na internetu“, aniž bychom uvažovali o potřebě vládnout jistým znalostním zázemím, které by nám pomohlo určit ne nepodstatnou validitu a kredibilitu daných informací. Nahrazením duševní práce počítačem se dle Spitzera (2004, str. 100) „v dlouhodobém horizontu vytrácejí odborné znalosti, které ovšem nutně potřebujeme, pokud chceme s internetem smysluplně pracovat. Dále se tím redukují i budoucí možnosti samostatné duševní práce a využití vlastní paměti.“ Spitzer (2014, str. 99) také poukazuje na v daném kontextu nezanedbatelný význam osobní (face to face) komunikace, když píše: „Pokud lidé zpracovávají informaci v přímém dialogu nebo v diskusi, pak je to podle všeho, co víme, nejhlubší možný způsob zpracování (informace).“ V této souvislosti dále zmiňuje stále moderní fenomén sociálních sítí, kdy uvádí následující příklad: „Svět bez sociálních sítí jako Facebook nebo Google+ si mnoho lidí dnes už nedokáže pro svůj život představit. Na schůzce sedí v kavárně proti sobě, ale nehledí si navzájem do očí, nýbrž každý do svého smartphonu – zřejmě proto, aby mohli přátelům rychle tweetovat, jak je rande skvělé“ (Spitzer, 2014, str. 101). Z provedených studií (Spitzer, 2014, str. 113) současně vyplývá, že užívání sociálních sítí jako je Facebook, které je spojeno s menším množstvím reálných kontaktů, musí u dětí vést ke „zmenšení velikosti sociálních oblastí mozku a k jejich menší sociální kompetenci.“ Fakt, že se uvedené a další v knize zmíněné, zejména pokud jde o děti, zlehčuje, je dle Spitzera alarmující. A nejde pouze o digitální média, mohli bychom bez přemíry nadsázky konstatovat, že lidstvo samo na sobě provádí takový zvláštní experiment, kdy zkoumá, do jaké míry jsme jako lidé schopni zdegenerovat. Reflexe předložená v knize Digitální demence je bezpochyby nejen citování-hodná, je především potřebná, a alespoň nahlédnutí do ní lze doporučit už jen kvůli bibliografii čítající množství relevantních pramenů. Ač by mohl čtenář, jak někteří vytýkají, postrádat diskusi programově opomenutých pozitiv, konkrétnější doporučení, jak eliminovat jmenovaná rizika (i když tato jsou alespoň naznačena v kapitole 14), než jsou možná v kontextu doby naivně působící tipy jako „vyhýbejte se digitálním médiím“, „usmívejte se“, „travte čas v přírodě“ nebo „zpívejte si“, případně hlubší k podstatě směřující analýzu, je zřejmé, že autorovým záměrem bylo něco jiného. Seznam použitých zdrojů Afemann, U. (2011). Ein Laptop macht noch keine Bildung. The European. Retrieved from www.theeuropean.de/uwe-afemann/6335-ikt-in-der-entwicklungszusammenarbeit. Carr, N. (2011). The Shallows: How the internet is changing the way we think, read and remember. London: Atlantic Books. Liessmann, K. P. (2009). Teorie nevzdělanosti: omyly společnosti vědění. Praha: Academia. Spitzer, M. (2014). Digitální demence: jak připravujeme sami sebe a naše děti o rozum. Brno: Host. Acta Informatica Pragensia 3(1), 2014, 128–136, DOI: 10.18267/j.aip.41 Online: aip.vse.cz Sekce / Section: Zamyšlení / Reflections Informace hypermoderní doby Information in Hypermodern Age Miloš Vítek1 1 Filozofická fakulta, Univerzita Hradec Králové, Rokitanského 62, 500 03 Hradec Králové [email protected] Abstrakt: Příspěvek otevírá problematiku, které se věnovala výroční 45. vědecká konference o systémovém inženýrství SYSIN 14: „Předpoklady informačních systémů“ na Univerzitě Pardubice, Fakultě ekonomicko-správní a jejím Ústavu systémového inženýrství a informatiky, v květnu 2014. Klíčová slova: Systémové inženýrství, informatika, informační systémy, filosofie, sociologie, modernita, hypermodernita. Abstract: The paper opens the issues of the annual 45th Scientific Conference on Systems Engineering SYSIN 14: “Preliminaries to Information Systems” holds at University Pardubice, Faculty of Economics and Administration, Institute of Systems Engineering and Informatics in May 2014. Keywords: Systems engineering, Informatics, Information systems, Philosophy, Sociology, Modernity, Hypermodernity. Acta Informatica Pragensia 129 1 Úvod Každá doba pracuje s informacemi, které odpovídají jejímu charakteru (Říhová, Vítek, 1989), (Vítek, 1990). Dnes internet „varuje dětičky před radou rodičů, vítězí tak zlo, lež, nenávist“. V příspěvku se budu držet pojetí hypermoderní doby, s nímž přišel francouzský filosof a sociolog Gilles Lipovetsky, profesor z pařížské Sorbonny, v knize Les temps hypermodernes, a které získalo mezinárodní ohlas. Pokusím se ukázat, jaká jsou specifika informací nastupující doby a jak se promítají do práce s informačními systémy. 2 Co je hypermodernita? Léta 1880-1950 můžeme považovat za první fázi modernity, pro niž bylo charakteristické zvyšování průmyslové výroby (fordismus, taylorismus), rozvoj dopravy a komunikací (železnice, telefon) a také prosazení kapitalistických tržních strategií (marketing, obchodní domy, výrobní značky, reklama). Šlo zároveň o období, kdy se rozšiřoval konzum a móda, tehdy ovšem pro jen některé vrstvy buržoasie. Po roce 1950 začíná druhá fáze modernity, kdy výroba a masový konzum přestaly být záležitostí jedné privilegované společenské vrstvy. Došlo k osvobození individualismu od tradičních norem a pravidel, rostl význam módního zboží a šířil se požitkářský způsob života, dostupný všem společenským vrstvám. Tato fáze stále více nabývala rysů postmodernity, když pojmy jako disciplina a odcizení nahradily půvab a svůdnost, předepsané způsoby chování zmizely a byly nahrazeny osobní volbou a zodpovědností. Na scénu přichází Narcis, ústřední postava zároveň pohodová i cool, požitkářská i anarchistická, neústupná i flexibilní. Asi od 80. let jsme vstoupili do časů hypermodernity jako třetí fáze konzumu, příznačné hypernarcismem (přehnaným obdivem k sobě samému), hyperkonzumem (vtahujícím do sebe další oblasti společenského života, strukturované podle principů slasti a citového prožitku) a hyperpřepychem (z důvodu sebeuspokojení, nikoli již demonstrace osobního postavení, tj. psychologizovaný luxus nahradil sociální teatrálnost). Doba má dvojakou povahu: „Místo hýřivé utopie máme odpovědnost a místo protestu obhospodařování: jako bychom dnes uznávali jen etiku a soutěživost, moudré regulování a úspěch v práci“ (Lipovetsky, 1983, str. 344). Rozpory hypermodernity se projevují zcela zřetelně: - Narcis je vyzrálý a zároveň nedospělý; - podniky přijímají etické kodexy a zároveň falšují obchodní údaje; - dopravci uznávají nutnost respektovat přírodu a zároveň ji ničí; - řidiči znají pravidla silničního provozu a zároveň při jízdě telefonují; - podnikatelé jsou stále výkonnější a zároveň rostou jejich psychosomatické potíže; - společnost žádá odpovědné chování a zároveň se šíří neodpovědnost; - jedinci jsou kritičtější a zároveň povrchnější; - informační technologie se neomezeně rozvíjejí a zároveň hrozí nezaměstnanost. Lipovetsky (2013, str. 29) shrnuje: „Posedlost sebou samým se už dnes neprojevuje v horečném požitkářství, ale ve strachu z nemoci a ze smrti, v postoupení běžných událostí lidského života do lékařské péče. Narcis už není zahleděný sám do sebe, převažuje vystrašenost z každodenního života, z vlastního těla a ze společnosti a lidských vztahů, které na něj působí agresivně.“ To vše se projevuje v působení neoliberálních principů na pracovní uplatnění jednotlivce, na místní úrovni ve znečištění životního prostředí a rostoucím násilí, na mezinárodní úrovni v terorismu a zkáze. Hesla „Užívejte si bez omezení“ případně „Nevaž se, odvaž se“ vystřídalo „Obávejte se bez ohledu na to, kolik vám je let“. 130 Vítek Víru nahradilo nadšení, nesmlouvavost systematických diskurzů vystřídala lehkovážnost, od extremismu jsme přešli k uvolnění. „Nastoupili jsme nekonečný proces desakralizace a desubstancializace smyslu, jímž se vymezuje panství dokonalé módy. Takto umírají bozi: nikoli v nihilistické demoralizaci Západu a v úzkosti z hodnotového prázdna, nýbrž v záškubech smyslu“ (Lipovetsky, Charles, 2013, str. 31). Ideové systémy se staly předmětem spotřeby a je možné je vyměnit jako auto nebo byt. Moderní sekularizace zcela potlačila vzájemnou solidaritu a nahradila ji osobními zájmy. Dnes komercializaci životních stylů nestojí v cestě žádné překážky, veřejná i soukromá sféra jsou uspořádány na základě principů spotřeby. Principy módy a spotřeby prostoupily stále širší oblasti veřejného i soukromého života: „Za vlády dokonalé módy je duchovní život je méně pevný, avšak vnímavější ke kritice, méně stálý, ale tolerantnější, méně sebejistý, avšak otevřenější k odlišnosti, k důkazu a k argumentaci druhého. Přirovnávat dovršenou módu k nevídanému procesu standardizace a odosobnění je povrchní. Ve skutečnosti móda podněcuje k náročnějšímu tázání, ke zmnožení subjektivních hledisek, ke zhroucení obecné názorové shody. Nelze tvrdit, že by narůstala všeobecná podobnost, naopak – dochází k odlišování drobných osobních verzí. Velké ideologické jistoty zmizely, aby umožnily rozkvět subjektivních názorů, které jsou možná nepříliš originální, tvůrčí a promyšlené, avšak početnější a tvárnější“ (Lipovetsky, Charles, 2013, str. 33). 3 Personalizované informace Celým Lipovetskyho dílem – od jeho první knihy Éra prázdnoty (1983) – prostupuje jako ústřední myšlenka personalizace. Vypjatý individualismus, který se zrodil s moderní dobou, za postmodernity přešel od příslušnosti k určitému světu k platnosti pouze formálních právních norem a předpisů. Za hypermodernity mechanismy kontroly nezmizely, pouze se přizpůsobily době, staly se méně direktivními a ustoupily ve prospěch komunikace: „Proces personalizace je totiž nový způsob, jak se společnost může uspořádat a nabrat směr, nový způsob, jak řídit chování jednotlivců. Není založen na pedantské krutovládě, nýbrž naopak na co nejmenším omezování a co největší možnosti soukromé volby, na minimální strohosti a maximální touze, na co nejmenším donucování a co možná největším pochopení“ (Lipovetsky, Charles, 2013, str. 19). Proti světu konzumu nemáme jiný ideál, který bychom proti němu mohli postavit. „Došlo i na náboženství, které se podvolilo konzumnímu způsobu života. Vyměnilo askezi za požitkářství a zalíbení v radovánkách a oslavách a upřednostnilo lásku a solidaritu před kajícností a rozjímáním… Hypermodernita funguje na principu neustálého přehodnocování minulosti a zdá se, že jejímu působení neunikne žádná oblast“ (Lipovetsky, Charles, 2013, str. 35). Pozdní modernizace a její principy ztratily se zřetele lidstvo a jeho potřeby, technika vymýtila veškeré hodnoty. Jejím přímým důsledkem je vznik určité podoby neonihilismu. „Nicméně nemůžeme se na věci dívat jen z negativního úhlu pohledu – zdaleka ne všechno se podřizuje jen ryzí spotřebě a je recyklovatelné. Například lidská práva nebo péče o pravdu se rozhodně konzumem strhnout nedají. Intelektuálové zůstávají houževnatými tvůrci smyslu jako takového. Intelektuální práce, kterou charakterizuje nepřekonatelná řemeslná dovednost a láskyplné zaujetí, možná postaví nejtrvalejší a nejsolidnější překážku malichernosti a světu, jenž se má stát především okázalou podívanou“ (Lipovetsky, Charles, 2013, str. 37-38). Láska nepodléhá úsilí o prospěch a zisk. Nadvláda peněz lásku nepodkopává. Konzum tedy nevládne bez omezení. Nové uspořádání společnosti se opírá o výhradně individuální touhy a přání, což neodstraňuje hrozby asociálního chování. Hodnotový relativismus neznamená ještě morální nihilismus. Občanská společnost touží po řádu a umírněnosti, „naší kultuře sice Acta Informatica Pragensia 131 vládnou subjektivní práva, ale to ještě neznamená, že ´vše je dovoleno´“ (Lipovetsky, Charles, 2013, str. 42). Média byla nucena přijmout principy módy, včlenit se do okázalého a povrchního způsobu života a ve svých poselstvích dát větší důraz na svůdnost a rozptýlení. „Touto cestou se přizpůsobila nové situaci, kdy individuální úsudek stále méně vychází z diskuse mezi soukromými osobami a stále více je určován konzumem a okouzlováním prostřednictvím informací… Rozhodně nejsme vystaveni uniformizaci smýšlení a chování. Sjednocování názorů a způsobů života nevede ke konsenzu v politické a sociální oblasti. Rozpory a konflikty přetrvávají i nadále, ale prošly individualistickým zklidněním veřejné diskuse“ (Lipovetsky, Charles, 2013, str. 45-47). Média zůstávají prostoupena principem duality, díky němuž je každá skutečnost ambivalentní. Tím mohou nejen informovat, ale i dezinformovat, např. vzbuzováním senzací mění politiku na frašku, namísto podpory kultury nás zahrnují záplavou estrád a sportovních přenosů. Zodpovědné chování je stále aktuální: „masová konzumní společnost, založená na individualismu a emocích, umožňuje současně existenci zodpovědného ducha v různých podobách i ducha nezodpovědného, který nedokáže odolat ani vnějším pokušením, ani niterným nutkáním. Ve skutečnosti bude binární princip naší společnosti dále narůstat a zodpovědnost každého jednotlivce bude stále důležitější“ (Lipovetsky, Charles, 2013, str. 50). Lipovetsky tak bere v úvahu komplexní povahu budoucnosti a odmítá její idealistické či naopak katastrofické vnímání. Zvyšování kolektivní i individuální odpovědnosti zůstane úhelným kamenem. 4 Binární povaha informací „Hypermoderní doba vytváří svým působením skrze technologickou normalizaci a rozvolňování sociálních vztahů zároveň zmatek i pořádek, nezávislost i subjektivní závislost, umírněnost i posedlost“ (Lipovetsky, Charles, 2013, str. 60). Ve všech oblastech je kladen důraz na neustálé proměny, na hyperzměnu nezatíženou utopickými vizemi, ale spjatou s nutností přežít. Čím méně je budoucnost předvídatelná, tím proměnlivější, flexibilnější a připravenější ke změnám musíme být. Zatímco modernita prvního řádu vyústila do technologického a tržního nihilismu, potom modernitě druhého řádu už nejde o to minulost zničit, ale znovu ji přijmout a začlenit do sebe. Naší dobou už není postmodernita, nýbrž hypermodernita. „Převažující lehkovážnost v prožívání času nahradil pocit ohrožení a nejistoty. Dříve byl každý den prožíván s určitou bezstarostností. V dnešní době je přítomnost a její prožitek doprovázen narůstající nejistotou. Doba se dnes zaměřuje pouze na ochranu, bezpečnost, obranu nabytých sociálních hodnot, humanitární pomoc v krizi a záchranu planety. Přítomnosti spíše otročíme, než abychom si užívali nových možností, které přinesla individualizace společnosti. Celosvětová společnost nás nepřestává nabádat ke konzumnímu požitkářství, zároveň už život není tak bezstarostný, prožíváme jej ve větším stresu a úzkostech“ (Lipovetsky, Charles, 2013, str. 72). Binární povaha hypermodernity tedy znamená, že vedle lehkovážnosti stojí úzkostlivost, vedle povznesené nálady a nadšení zranitelnost a vedle hravosti hrůza a zděšení. Zaměření na přítomnost prochází neustálou změnou a zůstává otevřené ve vztahu k sobě samému. Naděje vkládané do vzdělání provází obava ze snížení hodnoty získaných vysvědčení a diplomů. Mladí lidé mají obavu, že nenajdou uplatnění, starší že ztratí pracovní místo. Neplatí už doporučení carpe diem, život ze dne na den je zahalen strachem a neuspokojením. Budoucnost se stala něčím neurčitým a nejistým. „Damoklův meč nezaměstnanosti nutí studenty, aby vybírali typy studia, které trvají déle, a angažovali se v honbě za diplomy, 132 Vítek považované za záruku do budoucnosti. Také rodiče přijali hrozby související s hypermoderní liberalizací za své a přizpůsobili se jim“ (Lipovetsky, Charles, 2013, str. 81). Starost o budoucnost, včetně financování důchodů, je ústředním tématem spíše než uspokojení „teď a hned“ (hic et nunc). Podobně, nové postoje ke zdraví přešly od hédonistických ideálů k teoriím zaměřeným na zdraví a dlouhověkost. Lékařství se nespokojí s léčbou nemocných, vstupuje do péče dřív, než se objeví příznaky a nabádá ke změně životního stylu. Je třeba identifikovat zdroje nemocí, jíst zdravě, hubnout, nekouřit a mít dostatek pohybu. „Hyperindividualismus je spíše projektivní než zaměřený na současný okamžik, dává přednost hygieně před sváteční atmosférou a prevenci před požitkem. Převážila spíše přítomnost, která už netvoří jednotný celek, je plná úzkosti a znepokojení a pronásledují ji obavy z virů a z rozpadu časového uspořádání“ (Lipovetsky, Charles, 2013, str. 84). I jinde se množí kladné projevy všeho, co má trvalejší hodnotu. „Lidé přes všechny obavy a překážky vstupují do manželství, v milostném životě usilují o stabilní vztahy a znovu chápou věrnost jako důležitou hodnotu. Spíše než opěvování příležitostné lásky můžeme zaznamenat nespokojenost či frustraci ze známosti na jednu noc“ (Lipovetsky, Charles, 2013, str. 85). Jen tak lze porozumět přetrvávání ideálu lásky jako protipólu k úzkostné nadvládě pomíjivosti. Návrat budoucnosti je stejně důležitý jako oživení minulosti. „Hypermoderní doba projevuje úctu sebenepatrnějším minulým událostem či předmětům, odkazuje na povinnost nezapomínat a oživuje náboženské tradice“ (Lipovetsky, Charles, 2013, str. 99). Ve spotřebním duchu ovšem kvete „vzpomínková turistika“, kdy nad díly z minulých dob nerozjímáme, ale zhltneme je za několik vteřin. Často jde o způsob, jak zabít volný čas a rozptýlit se. „Předpona „post“ v tomto smyslu vyjadřuje obrácení do minulosti. A předpona „hyper“ zase označuje, že vztah k časovosti je od nynějška předmětem tržní spotřeby a rozšířil se i na oblast kulturní paměti“ (Lipovetsky, Charles, 2013, str. 104). Tradice už neznamená opakování a stala se módním předmětem. V hypermoderním světě vzniká nový prostor pro náboženství, uspokojujícím potřebu jednoty a smyslu, bezpečí a příslušnosti ke komunitě. „Sekularizace neznamená bezbožnost. Sekularizace je také tím, co znovu vnáší náboženský rozměr do světa pozemské nezávislosti, náboženský rozměr, který se oprostil od vlivu institucí a který zohledňuje především osobní názor a cítění a je založený na emocionálním prožitku“ (Lipovetsky, Charles, 2013, str. 112). Kulturní identita se nyní více zakládá na reflexi, je otevřená a závislá na jednotlivcích. Důležitá je touha po hyperuznání, která odmítá pohrdání, znevažování a povyšování se v jakékoli podobě, směřuje k nové kultuře individuálního blahobytu, vztahující se sama k sobě jako metazbožnost. Ta do sebe vtahuje tradici západních i východních náboženství. Lipovetsky (2013, str. 120) svůj výklad uzavírá slovy: „Asi nikdo nebude popírat, že světový vývoj vyvolává spíše obavy než optimistické nadšení. Opravňuje nás však tato skutečnost k tomu, abychom proměnu dnešního světa vnímali jako „návrat nelidskosti a barbarství“? Znamenalo by to, že podceňujeme sílu sebekritiky a usměrňování sebe samého, která má v liberálně demokratickém světě své místo. Znevažování svrchovaných hodnot totiž má své hranice a budoucnost zůstává otevřená. Demokratická a tržní hypermodernita stojí teprve na počátku svého historického dobrodružství“. 5 Poznámka o současnosti O nové hrozbě ztráty domova u tradičních komunit i u společenských tříd uvažuje Jan Keller (2013) v knize Posvícení bezdomovců: „Moderní člověk v důsledku rychlých změn a destrukce tradičních životních podmínek včetně zpochybnění náboženství trpí pocitem absence domova … Nástup masové nezaměstnanosti a stále nejistější zaměstnání vede od Acta Informatica Pragensia 133 80. let k šíření konceptu zranitelnosti /vulnerability/. Sociální vyloučení se stává trvalým stavem pro relativně malou část lidí žijících v bohatých společnostech. Všechny základní hodnoty, které přináší existence pevného domova, jsou přímo v jádru zpochybněny i u těch, kdo se zatím ještě fyzickými bezdomovci nestali. Sociální exkluze je pouze posledním stadiem procesu vykořisťování s jeho střídavým přivlastňováním a vypuzováním pracovní síly podle momentálních potřeb kapitálu“. Kapitál už nepotřebuje práci a masový konzum, ani chudé, které již totálně zinkasoval. Postup neoliberalismu v posledních letech „neznamená nic jiného, než že se vlivní a bohatí definitivně rozhodli zinkasovat příslušníky středních vrstev. Neoliberálové vše podřizují imperativu ekonomickému a ze sociálna činí jen jeho druhořadý doplněk“. Tomu odpovídá představa, že společnost má být řízena personálními agenturami a profesními odborníky zcela bezideově a utilitárně. Nedostatek moderní práce je dán také nebývalým vědeckotechnickým rozvojem, automatizací a specializací. Vcelku to znamená stále větší kumulaci kapitálu v rukou stále menšího počtu subjektů na jedné straně a na druhé straně stále větší masu vyloučených. Chudobou, sociálním vyloučením a ztrátou střechy nad hlavou je ohrožena asi čtvrtina obyvatel Evropy. O tom, jak vypadá česká společnost v přicházející hypermoderní době, si můžeme udělat podrobnější představu také ze svodných článků v LN 4.1.2014. Podle politologa Michala Klímy (str. 24) parlamentní politické strany tu jsou převážně klientelistické a podnikatelské s vazbami na nekalý byznys, někde i na organizovaný zločin. Tím se navyšuje jejich parazitický a korupční potenciál. Privatizaci partají zdola uskutečnili bossové nebo kmotři okresního a regionálního formátu, kteří investovali do politiky a ovládnutí zastupitelstev a rad velkých měst a krajů. Kolonizace českých stran shora se zakládá na vztahu klient-klient mezi nejmocnějším byznysem a celostátní politickou reprezentací, např. ČEZ, Penta a MUS mají klíčový vliv na ODS a ČSSD. Zbytky ideově založených členů ve stranách byly převálcovány lépe organizovanými strukturami ze šedé a černé zóny. Naději vidí Klíma v silné občanské společnosti, která bude politikům nastavovat náročné mantinely po celé funkční období. Podle redaktora Josefa Chuchmy (tamtéž, str. 21-22) hrozí, že ČR se Západem nikdy nestane a zůstane středoevropská. Frustrující je přitom přízemnost, pasivní agresivita a odevzdanost. Beton zatížil tento prostor, ačkoli řešením by mělo být vzdělání a svobodný prostor. ČR stagnuje mentálně, v atmosféře, ve vitalitě. Začíná být ponechána na pospas kolonizátorům všeho druhu. Oproti postmodernímu diskurzu, který připouštěl různost postojů, se dnes postoje staví ostře proti sobě a bohatí a chudí se ani neposlouchají. Po natěšeném polistopadovém neoliberalismu se historické kyvadlo přesouvá nalevo, avšak bez pozitivního programu. Politická kultura je kontaminována nízkou podporou institucí, jako jsou vláda, parlament a politické strany, přitom klesá spokojenost lidí s fungováním demokracie. K hédonistickým hodnotovým orientacím se hlásí kolem 90% dospělé populace a kolem 75% dospělé populace vyznává rovnostářské hodnotové orientace – tyto orientace si ovšem protiřečí a vyvolávají pnutí „ať se každý stará sám o sebe“. Kulturnost lidí např. v ordinacích lékařů se rapidně zhoršuje, přibývá výstupů agresivních neurvalců. „Společnost se polarizuje shora i zdola, s tím druhým se nemluví, rozmývají se hranice mezi morálně a politicky přijatelným a nepřijatelným, nikoli vinou nějaké postmoderní libovůle, nýbrž vinou apatie a pasivní agresivity. ČR sice nadále zůstává mezi vyspělými zeměmi a vzniká v ní řada užitečných a dobrých věcí. Otázkou je, jak dlouho takové žití z podstaty, respektive existování bez vize, může vydržet bez citelných hmotných následků.“ Máme být na co hrdi? Shrnuto: v klidu a pohodě šíří se zlodějství / hrdinstvím doby však zůstalo nekrást. Tak tomu ovšem bylo už v minulosti, kupříkladu zasloužilí členové rodu Kinských, jenž dodnes sídlí mj. v Kostelci nad Orlicí, odmítali přijmout titul kníže z Vídně, neboť jako česká šlechta by jej mohli dostat jen od českého krále (Brož, 1997, str. 58). Zůstaneme-li u českého SI, pak jeho zakladatel Zdeněk Dráb odmítal přijmout titul profesor od komunistů, na jeho tvůrčí 134 Vítek odkaz jsme mohli s hrdostí navázat. Pokud by se měli podílet na zkorumpovaném školství apod., systémoví inženýři své aktivity přeorientují nebo zastaví. 6 Úkoly systémového inženýrství V systémovém inženýrství rozlišujeme primární analýzu a syntézu, kdy se zaměřujeme na daná fakta o věcech či lidech a z nich odvozujeme zobecněné informace případně znalosti jako informace o informacích 1 , a sekundární analýzu a syntézu, která zásadně přetváří primární výsledky směrem ke vhledu, bdělosti a charismatu. Jestliže primární stupeň je převážně technologické povahy, potom sekundární úroveň vydatně užívá filosofii a sociologii, případně další odborné discipliny (například psychologii). Rovněž naše monografie zabíhá místy k sekundárnímu zpracování již publikovaných monografií a jiných textů, aniž by to znamenalo pouhou kompilaci ve smyslu „z deseti knih vyrobit jedenáctou“. Máme zato, že hluboká sekundární práce s daty, informacemi a znalostmi, případně metaznalostmi, se zapojením nejen rozumu v hlavě člověka, ale též jeho citů, vůle i fantasie, tedy s uvažováním celého člověka (totus homo), teprve dává smysl a význam informačním systémům. 2 Primární analýza a syntéza informačních systémů se zabývá korektním a spolehlivým technickým, především hardwarovým a softwarovým, zajištěním IS. Sekundární analýza a syntéza informačních systémů potom nemá za cíl pouhou popularizaci a medializaci dosud shromážděných informací, ale stále více si všímá možného zneužití informací k policejním, mocenským a podnikatelským účelům. Závažné byly v roce 2013 následky odhalení elektronického špehování americkými vládními službami v programu Prism, před kterým neochránily občany ani celosvětově, ani v USA či v EU platné listiny lidských práv. Rostoucí nedůvěra v bezpečnost Facebooku může v některých firmách paradoxně zvýšit produktivitu práce zaměstnanců až trojnásobně. Heslo Nicka Cartera „Vždy ve střehu“ lze interpretovat též „pokud nevíte, kdo je sledován, znamená to, že sledují právě vás“. Nicméně Umberto Eco opakuje, že tzv. utajované informace už někde uveřejnila média. Ještě výstižnější byl Chalíl Džibrán, když napsal: „Věříte tomu, co říkají ostatní. Věřte raději v nevyřčené, neboť mlčení lidí se pravdě blíží více než jejich slova.“ Taktéž láska je tajemstvím našeho soukromí! Edward Snowden, který špehování odhalil, po putování přes Čínu a Rusko požádal o azyl v Brazílii, stojící v čele kampaně OSN za omezení elektronického sledování. Brazílie a další země zavádějí zákony o lokalizaci dat, vyžadující, aby data spojená s domácími občany byla uložena výlučně v dané zemi. To ovšem zvýší těmto zemím technologické náklady, zejména na elektřinu na provoz a chlazení serverů. Uchladit velký datový mrak (cloud) v Brazílii bude 1 Primární analýza a syntéza dat přináší zajímavá zjištění, jako že za časů Marxe byl ekonomický výkon Afričana na pětině jeho britského soudruha, od té doby klesl na desetinu; podobně platí, že průměrný příjem 5% nejbohatších Indů odpovídá průměrnému příjmu 5% nejchudších Američanů, neboli, chudí v Americe nebo Evropě jsou příjmovou elitou ve světě (zdroj: Foreign Policy). Jinak: 85 nejbohatších lidí planety vlastní stejně velký majetek jako 3,5 miliardy nejchudších (zdroj: Oxfam). Kde je tedy světová demokracie? Ptáme se dál. 2 K syntetickým kategoriím tu patří naděje, kterou můžeme nazírat též podle Psychologického ústavu FF Masarykovy univerzity v Brně: „Bylo zjištěno, že lidé silné naděje se při střetu s překážkou nevzdávají, ale snaží se hledat alternativní řešení a nacházet jiné způsoby a cesty k dosažení svého cíle. Těžkosti, se kterými se v životě setkávají, pokládají za zvládnutelné a chápou překážky spíše jako výzvy k jejich překonání. Lidé se slabou nadějí vnímají překážku jako past, do které budou chyceni. Také často trvají na jednom cíli a nepřemýšlejí o jeho alternativách“ (LN 27.12.2013, str. 21). Nadějné myšlení značně zvyšuje životní štěstí, duševní vyrovnanost i fyzické zdraví. Bývá příznačné pro spirituální a religiózní lidi, kteří vykonávají nějakou dobrovolnickou činnost, k ní motivují přátele a přispívají penězi. Bylo zjištěno, že naději nejméně prožívají lidé od 18 do 29 let, nejvíce lidé od 50 do 59 let, což ilustruje roli zkušeností a odpovědnosti za svůj život. Acta Informatica Pragensia 135 takřka nemožné. Také v Evropě se varuje, že růst obchodu se službami v rámci evropské jurisdikce je nejen velmi nákladný, ale také nebezpečný (neboť zneužitelný). Také tyto problémy patří mezi Předpoklady informačních systémů, jak zní téma naší monografie. Naše zkoumání dospělo až k filosofické a sociologické otázce, zda svůj světový názor máme založit na apriorním principu racionální despocie (Hobbes) nebo na apriorním principu morální autonomie (Kant). Důležité pro nás je, že od toho vyplynou nejméně dvě odlišné koncepce informační bezpečnosti, totiž „spolehlivost“ anebo „štěstí“ (politolog by řekl: „násilí“ anebo „svoboda“, psycholog by odhalil různou míru svéprávnosti zúčastněných jedinců atd.). Z hlediska systémového inženýrství můžeme rozlišit tři typy vzdělávání: 1/ akademický typ byl vhodný pro hierarchické, centrálně řízené a vrchnostenské společnosti, jaká tu byla již za Marie Terezie. Platilo heslo: „zopakuj, co jsem ti říkal, a poslušně vykonej, co jsem ti přikázal“. Informace byly nedostatkové a přidělovaly se talentovanějším lidem, tehdy šlechtě, se záměrem, aby je kvalifikovaně vykonávali. Takový přístup ještě vyznává většina středních a vysokých škol, když tlačí před sebou zastaralou představu o povinnosti studentů zapamatovat si vše, co jejich profesor ještě nezapomněl. Nadále „profesor není confessor, tj. vyznavač, je malověrný, bázlivý, služebný kastrát“ (Václav Černý). Nedostává se svobodný čas žáků ani o přestávkách, na pěší přesuny do a ze školy, resp. mezi školami. 2/ systémový typ se stal aktuálním v době plošně dostupných informací, pokročilých ICT a decentralizované společnosti se složitými sítěmi vztahů. Uvažuje „školu demokracie“ (Tomáš Škrdlant) či „cílově orientované vzdělávání“ (Tomáš Feřtek3), jehož cílem je „sežeň a posuď důležité informace a rozhodni se, co a jak vykonáš“. Více než poslušnost bez odmlouvání se cení osobní angažovanost, ochota sám navrhnout řešení problému a vůle dotáhnout ho do konce. Jde o to, najít člověka, který převezme sociální odpovědnost za úkol a v domluveném čase ho dokončí bez výmluv na objektivní potíže. K cílům vzdělávání patří dále týmová spolupráce, empatie a milosrdnost spíše než osobní profit. K metodě systémového učení radí pedagog Jiří Kostečka: „Neučím od Gilgameše po Kunderu, ale učím tituly, kvalitní autory. Tím proberu základní umělecké směry“ - k tomu dodáváme, že osvojení celostného myšlení není dnes možné bez četby Kanta. Naznačenou cestou se ubírá menšina středních a vysokých škol, zaměřených na rozvoj osobnosti a život, nikoli jen na další přijímačky. Sestavit a udržet kvalitní tým učitelů tu je obtížné, získat grant téměř nemožné… 3/ úpadkový typ hrozí tomu, „kdo chvíli stál, teď stojí opodál“ (Jan Neruda) neboli „jsou tu ještě angličtí letci a Jan Palach. Ale oboje je už taky minulost. To opravdu není nic, co by se alespoň evropsky prosadilo, když už ne světově? Pivovary vlastní cizí firmy, Škodovku také, Kaplického blob jsme nepostavili a Miloš Forman už žije v Americe. České sklo jako pojem známý v celém světě už prostě neexistuje … nacházíme k hrdosti stále méně důvodů“ (Josef Klíma). Typ ad 3/ zahrnuje zvrhlou demokracii - jako blbost odhlasovanou občany ve prospěch vůdců jako byli Hitler, Pol Pot nebo Lukašenko: „I kdyby si odhlasovali sebevětší blbost, bude to jejich demokratická vůle“ (Tomio Okamura). V našich podmínkách na řadě škol nepřemýšlejí vůbec, nepochybují a mají navždy jasno. Hlavní pro ně bývá, že se děti 3 Z citovaných jmen a prací vybereme článek: Feřtek T. (odborný konzultant EDUin, o.p.s.), Dar z nebes. Debata o PORG je diskusí o smyslu vzdělávání. Ocenit by to měly ty méně prestižní školy. LN, 25.1.2014, str.10, odkud uvedeme: „bývalý ředitel Klaus hodně tlačil na akademické výsledky, nijak se tím netajil a k sociálním kompetencím byl ostražitý“. K prosazování systémového vzdělávání viz monografie Pedagogické fakulty UHK: Vítek M. (ed.) Skutečnost, řád, výchova (1998), Systémovost ve školství (1999), Vzdělávání bez hranic (1999), Občanská výchova pro novou společnost (2001), Systémová pedagogika (2005) aj. Hradec Králové: Gaudeamus. 136 Vítek dostanou, kam chtějí: „na anglinu, ajtý nebo občanku“. Přesto: „Neleží mi v hlavě ani tak politika, jak stálý růst zlodějství. Protože ono je součástí živočišné povahy, která se dá překonávat jenom výchovou“ (Ludvík Vaculík). Tolik k úkolům systémového inženýrství, pokud SI chápeme jako „aplikaci holistického myšlení při projektování a přeprojektování sociálně kulturních systémů“ (Vítek et al., 1990), (Vítek, 2005). 7 Závěr Ačkoli Gilles Lipovetsky4 nepoužívá pojem „systémový“, přesto jeho „komplexní“ názor se zřetelem k více úhlům pohledu je pro nás výzvou jak k obnově tradičních postupů (náboženství, ale též Kanta, Hegela aj.), tak ke hledání postupů zcela nových. Ve smyslu binarity hypermoderní doby a její reflexe nám jde o propojování technologických informací s informacemi sociálními, o sepětí mezi primární a sekundární analýzou a syntézou dat, informací a znalostí. Sám Lipovetsky doznává, že jako filosof „zbloudil“, jeho vnímání je nezařaditelné mezi univerzitní obory, spíše se snaží pochopit, jak skutečnost „funguje“ (Lipovetsky, Charles, 2013, str. 121). Závěrem tedy nedospíváme k celostné a jednoduché formulce, nýbrž k hlubokému respektu ke složité, rozporuplné a konfliktní skutečnosti. Poučili jsme se, že pod hypersystémové přístupy musíme zahrnovat rovněž názory nesystémové, tj. netechnické a nesociální: „Hypermoderní tlak na neustálé navyšování je zmírňován požadavky na kvalitnější život, na zhodnocení citového prožitku a na nezaměnitelnou osobnost“ (Lipovetsky, Charles, 2013, str. 96). Seznam použitých zdrojů Brož, I. (1997) Velké postavy rodu Kinských. Praha: Petrklíč. Keller, J. (2013) Posvícení bezdomovců. Úvod do sociologie domova. Praha: SLON. Lipovetsky, G. (1983) Éra prázdnoty. Praha: Prostor. Lipovetsky, G., Charles, S. (2013) Hypermoderní doba. Od požitku k úzkosti. Praha: Prostor. Říhová, Z., Vítek, M. (1989) Kybernetika a teorie systémů. Praha: SPN. Vítek, M. (1990) Informatizace. Pardubice: VŠCHT. Vítek, M. et al. (1990) Systémové inženýrství. Pardubice: VŠCHT. Vítek, M. (2005) Systémová pedagogika. In Sborník XXXVII. vědecké konference o systémovém inženýrství SI. Hradec Králové: Gaudeamus. 4 V zájmu stručnosti jsme se soustředili pouze na nedávno vydanou knihu (Lipovetsky, Charles, 2013). V pražském nakladatelství Prostor od stejného autora vyšly ještě tituly Věčný přepych (2005), Třetí žena (Neměnnost a proměny ženství) (2007), Paradoxní štěstí (Esej o hyperkonzumní společnosti) (2007), Éra prázdnoty (Úvahy o současném individualismu) (2008), Říše pomíjivosti (Móda a její úděl v moderních společnostech) (2010), Soumrak povinnosti (Bezbolestná etika nových demokratických časů) (2011) a Globalizovaný Západ (Polemika o planetární kultuře) (2012). Acta Informatica Pragensia Recenzovaný vědecký časopis / Peer-reviewed scientific journal ISSN: 1805-4951 Články v časopise podléhají licenci Creative Commons Uveďte autora 3.0 This work is licensed under a Creative Commons Attribution 3.0 License
Podobné dokumenty
Návod k použití UD 3004
Záznam na základě detekce pohybu v obraze a Záznam na základě alarmu senzoru jsou označovány jako Alarmové
záznamy(Alarm Record).
Multikamerové nahrávání
V případě Multikamerového nahrávání pracuje...
anotace přijatých projektů soutěže iga 2015
rostlina-patogen, rostlinné biotechnologie a evoluční vztahy. Jde o dlouhodobou koncepci katedry, která se odráží v jednotlivých
ročních studentských projektech. Trendem dnešní doby je komplexní př...
Výstavba datového skladu s použitím open source
Práce se zabývá využitím open source a bezplatného software pro vybudování datového skladu. Motivací je navrhnout implementací datového skladu při malou či střední firmu bez nutnosti pořízení komer...
Integrační nástroje a jejich vazba k CASE a modelování vůbec
podporu průřezových obchodních procesů. Většinou jsou míněny klíčové postupy podniku.
Požadavky na tyto aplikace se ale často mění, a proto je potřeba, aby i takto složité
integrační prostředí bylo...
Výroční zpráva - Fakulta mezinárodních vztahů
koncipovaných předmětech a zároveň zpřístupněním vybraných akreditovaných předmětů
i pro posluchače této univerzity.
Další programy a kurzy celoživotního vzdělávání byly uskutečňovány v rámci doplň...
Recenzovaný vědecký časopis / Peer
Vysoká škola ekonomická v Praze / University of Economics Prague
nám. W. Churchilla 4
130 67 Praha 3
Czech Republic (The European Union)
IČ / ID: 61384399
Web: http://aip.vse.cz
2) Krajina, definice v různých pojetích, typologie krajin Krajina
fidelita – označuje stupeň vázanosti či věrnosti druhů k určité zoocenóze. Podle fidelity rozlišujeme druhy eucenní,
tychocenní, acenní a xenocenní.
koordinace – vyjadřuje stupeň společného výskytu...