A, P
Transkript
Základnı́ pojmy a úvod do teorie pravděpodobnosti Ing. Michael Rost, Ph.D. Co je to Statistika? • Statistiku lze definovat jako vědnı́ obor, zabývajı́cı́ se hromadnými jevy a procesy. • Statistika zahrnuje jak zı́skávánı́, tak i analýzu a interpretaci napozorovaných dat. Cı́lem statistického zpracovánı́ dat je podánı́ informace o vlastnostech, povaze a zákonitostech projevujı́cı́ch se na pozorovaných datech. Počátky statistiky lze nalézt již ve starověku. Dalšı́ rozmach 16 – 17 stoletı́. Souvislost s hazardnı́mi hrami. c Rost 2006 ° Hromadný jev • Jevy, které se vyskytujı́ v masovém měřı́tku a mohou se neustále opakovat, nazýváme hromadnými jevy. • V zásadě existujı́ dva typy hromadných jevů: – Prvnı́m je opakované měřenı́ sledované vlastnosti jednoho předmětu. – Druhým typem je pak sledovánı́ vlastnosti(ı́) na předem definované množině sledovaných předmětů. Hranice mezi individuálnı́m a hromadným pojetı́m je neostrá. c Rost 2006 ° Významná jména spojená se statistikou Mezi přednı́ světové statistiky bezesporu patřı́ tato jména: Galileo Galilei, Blaise Pascal, Piere Fermat, Jacob Bernoulli, Thomas Bayes, Karl Friedrich Gauss, Andrej Andrejevič Markov, Andrej Nikolajevič Kolmogorov, Karel Pearson, atd . . . c Rost 2006 ° Základnı́ pojmy • Statistický soubor je definován jako množina sledovaných statistických jednotek. • Rozlišujeme základnı́ statistický soubor a výběrový statistický soubor. • Počet jednotek v analyzovaném statistickém souboru se nazývá rozsah souboru. • Z hlediska rozsahu souboru se může jednat o konečný či nekonečný soubor. c Rost 2006 ° • Statistická jednotka je obecně nositelem sledovaných vlastnostı́, tj. statistických znaků. • Statistický znak je obrazem určité vlastnosti každé statistické jednotky ze statistického souboru. • Hodnota statistického znaku je pak označenı́m stupně dané vlastnosti. c Rost 2006 ° • Hodnota statistického znaku se často nazývá pozorovánı́. • Jeden údaj, záznam = datum • Vı́ce údajů, záznamů = data Pozor pedanti to rozlišujı́ !!! c Rost 2006 ° Dva druhy našeho uvažovánı́ Dle našeho přı́stupu k chápánı́ okolnı́ho světa můžeme rozeznávat dva přı́stupy: 1) Indukce znamená usuzovánı́ z partikulárnı́ho na obecné. 2) Dedukce znamená usuzovánı́ na základě obecných poznatků či axiómů na partikulárnı́. c Rost 2006 ° Typy dat V praxi se lze setkat s různými druhy dat. Přı́kladem mohou být záznamy o pohlavı́ dı́těte, počet potratů, hodnoty systolického tlaku, údaje z CT, hmotnost pacientů, atd. • Nominálnı́ znaky, • Ordinálnı́ znaky, • Intervalové znaky–metrické znaky, • Poměrové veličiny–kardinálnı́ veličiny. Pokud existujı́ pouze dvě hodnoty jichž může sledovaný znak nabývat, pak takový znak nazýváme dichotomickým či binárnı́m. c Rost 2006 ° Podle počtu hodnot, kterých může daný statistický znak nabývat lze znaky dělit na diskrétnı́ a spojité. • Diskrétnı́ znaky: Jsou takové znaky, které mohou nabýt konečného či spočetného počtu hodnot. Přı́kladem může být počet lidı́ zaměstnaných v Okresnı́ nemocnici v Českých Budějovicı́ch. • Spojité znaky: Jsou takové statistické znaky, které mohou nabývat nekonečně mnoha hodnot v konečném či nekonečném intervalu. Teplota pacienta nebo jeho KT. c Rost 2006 ° Statistický software • V současné době existuje celá řada statistických programů, které umožňujı́ provádět složité statistické výpočty. • Zájemce může využı́vat programy jako jsou S-plus, SAS, SPSS, Statistica, Minitab, GAUSS, Octave, Maple, Matlab. • Jedná se však o dosti drahé komerčnı́ programy. Cena se pohybuje řádově v desetitisı́cı́ch za licenci. • Náš software je se jmenuje STATISTICA. c Rost 2006 ° Pauza na kávičku a cigaretku cca 7 min. c Rost 2006 ° Náhodný jev a pokus Pokud realizace určitého souboru podmı́nek nevede k jednoznačnému výsledku ani při opakované realizaci daného souboru podmı́nek, pak se lze oprávněně domnı́vat, že výsledek je závislý na dalšı́ch, blı́že nespecifikovaných podmı́nkách. Ty lze v tomto smyslu označit za náhodné činitele. • Jevy, které v závislosti na náhodě mohou, ale nemusı́ při uskutečněnı́ daného souboru podmı́nek nastat, nazýváme náhodnými jevy. • Samotnou realizaci podmı́nek vedoucı́ k určitému výsledku pak nazveme náhodným pokusem. c Rost 2006 ° Jak chápat tyto pojmy? Pojem pokus můžeme v souvislosti s počtem pravděpodobnosti chápat dosti široce. • Za pokus lze považovat např. počet vyrobených výrobků během pracovnı́ směny, či celkovou spotřebu el. energie mezi 20 hodinou a 7 hodinou rannı́ v Českých Budějovicı́ch. • Za náhodný pokus lze považovat i zjišt’ovánı́ počtu bı́lých krvinek u pacienta před a po terapii. Přı́kladů je celá řada, jistě sami vymyslı́te dalšı́... c Rost 2006 ° S náhodnými jevy lze pracovat jako s množinami. Je tedy možné při výpočtech souvisejı́cı́ch s pravděpodobnostı́ využı́t množinových operacı́. • Symbolem A pro tuto chvı́li označme množinu. • To, že a je prvkem množiny A, zapı́šeme takto a ∈ A. • To, že a1, a2 a a3 jsou prvky množiny A, lze zapsat jako A ∈ {a1, a2, a3} • Prázdnou množinu budeme značit pomocı́ symbolu {∅}. c Rost 2006 ° Základnı́ operace Jestliže při každé realizaci jevu A nastává jev B, pak řı́káme, že jev A má za následek jev B, nebo jinými slovy, jev A implikuje jev B. Tuto skutečnost zapı́šeme jako A ⊂ B. Jev který spočı́vá v realizaci alespoň jednoho z jevů A či B, nazýváme sjednocenı́ jevů A a B. Situaci lze zachytit symbolicky jako A ∪ B. Pokud máme vı́ce náhodných jevů např.: A1, A2, . . . , An, pak jejich sjednocenı́m n [ Ai , i=1 budeme rozumět takový jev, který zahrnuje uskutečněnı́ alespoň jednoho z jevů A1, A2, . . . , An. c Rost 2006 ° Základnı́ operace Průnikem náhodných jevů A a B budeme rozumět současnou realizaci obou jevů, tj. A i B. Tento stav zapı́šeme symbolicky jako A ∩ B. Průnik n jevů Ai pro i = 1, 2, . . . , n, tj. současnou realizaci všech n jevů Ai symbolicky zapı́šeme n \ Ai. i=1 Jevy A a B nazveme jevy opačnými (též doplňkové či komplementárnı́), jestliže budou platit následujı́cı́ relace A ∪ B = Ω a zároveň A ∩ B = ∅. Doplněk k jevu A se zpravidla značı́ symbolem Ā nebo Ac. Jev Ā spočı́vá v nenastoupenı́ jevu A. c Rost 2006 ° Jev jistý a jev nemožný Jev, který nastává vždy při realizaci určitého komplexu podmı́nek, budeme označovat jevem jistým a zapisovat pomocı́ symbolu Ω nebo E. Naopak jev, který se nevyskytne nikdy, přestože se realizuje komplex určitých podmı́nek, budeme nazývat jevem nemožným a označovat pomocı́ symbolu ∅. Vymyslı́te přı́klady takovýchto jevů? c Rost 2006 ° Výběrový prostor Pokud budeme uvažovat náhodný pokus, v jehož průběhu házı́me dvakrát mincı́, pak jsou možné pouze čtyři výsledky: {{hlava, hlava}, {hlava, orel}, {orel, hlava}, {orel, orel}} Množina všech možných výsledků se zpravidla nazývá množina možných výsledků, někdy také výběrový prostor. Symbolicky bývá označována pomocı́ symbolu Ω. Jev je v této souvislosti definován, jako podmnožina množiny možných výsledků. Uvědomte si, že jevem může být i samotná množina možných výsledků, což je jev jistý. c Rost 2006 ° Jevy Je třeba rozlišit: • Elementárnı́ jevy - tyto jevy nelze dále rozložit. • Složené jevy - jsou složeny minimálně ze dvou elementárnı́ch jevů. c Rost 2006 ° σ-algebra Pro správné zavedenı́ matematického modelu je nutné zavést jistý systém množin, označme jej A. Ten nazýváme algebrou, přesněji σ-algebrou, pokud platı́: A, B ∈ A ⇒ A ∪ B ∈ A (1) A, B ∈ A ⇒ A ∩ B ∈ A (2) A ∈ A ⇒ Ā ∈ A (3) Ω ∈ A, (4) ∅∈A c Rost 2006 ° Pravděpodobnostnı́ funkce Rozdělenı́m pravděpodobnosti na množině Ω = {a1, a2, · · · , an} s algebrou A nazýváme každou nezápornou funkci P na množině Ω takovou, že P (a1) + P (a2) + · · · + P (an) = 1 Trojici A, Ω, P , kde P je rozdělenı́m pravděpodobnosti na množině Ω s algebrou A budeme nazývat pravděpodobnostnı́m prostorem. Pokud bude zároveň platit, že Ω = {a1, a2, · · · , an} a 1 , n tak pravděpodobnostnı́ funkci P nazveme klasickým rozdělenı́m pravděpodobnosti na množině Ω a trojici (A, P, Ω) nazveme klasickým rozdělenı́m pravděpodobnosti. P (a1) = P (a2) = · · · = P (an) = c Rost 2006 ° Axionometrická definice pravděpodobnosti Autorem je A. N. Kolmogorov. Definice je založena na předpokladu, že náhodný jev je podmnožinou výběrového prostoru. Necht’ je ke každému jevu A ∈ Ω přiřazeno určité čı́slo P (A), které nazveme pravděpodobnostı́ jevu. Necht’ je tato pravděpodobnost P (.) vždy nezáporná tj. bude platit P (A) ≥ 0 axiom nezápornosti. Pravděpodobnost sjednocenı́ konečného či spočetně nekonečného (tj. takového počtu jevů které lze očı́slovat za pomoci přirozených čı́sel) počtu neslučitelných jevů A1 ∪A2 ∪· · · je rovna součtu jejich pravděpodobnostı́, tedy P (A1 ∪ A1 ∪ · · · ) = P (A1) + P (A2) + · · · axiom aditivity. c Rost 2006 ° Axionometrická definice pravděpodobnosti Pravděpodobnost jistého jevu je rovna jedné, tj. musı́ platit: P (Ω) = 1 axiom normy. Poznámka: Axiomatická definice pravděpodobnosti matematicky přesně a nerozporně vymezuje pojem pravděpodobnosti, ale nedává návod jak ji vypočı́st. c Rost 2006 ° Klasická definice pravděpodobnosti Jejı́m autorem byl P. S. Laplace. Při stanovenı́ čı́selné hodnoty pravděpodobnosti vycházı́me z klasické definice pravděpodobnosti. Tu lze definovat takto: Může-li jistý prováděný pokus vykázat konečný počet n různých výsledků (hovořı́me o nich jako o elementárnı́ch jevech), které jsou stejně možné a jestliže m z těchto výsledků má za následek nastoupenı́ jevu A (v podstatě jevy přı́znivé), kdežto zbylých n − m výsledků je vylučuje, potom je pravděpodobnost jevu A rovna: m P (A) = n Základnı́m předpokladem klasické definice pravděpodobnosti je však stejná možnost či pravděpodobnost konečného počtu elementárnı́ch jevů. c Rost 2006 ° Máte minci? Jaká je pravděpodobnost, že padne rub? Dle klasické definice pravděpodobnosti 1 P (rub) = = 0, 5 . 2 Proved’me však malý experiment: Házejme mincı́ a sledujme kolikrát nám padne rub. výsledky si zaznamenejte. c Rost 2006 ° Statistická definice pravděpodobnosti Statistická definice pravděpodobnosti se zakládá na relativnı́ četnosti jevu A, jehož pravděpodobnost P (A) se snažı́me určit. V podstatě odhadujeme pravděpodobnost pomocı́ relativnı́ četnosti v sérii dostatečně velkého počtu nezávislých pokusů, což lze symbolicky zapsat takto: m P (A) ≈ jinak řečeno n m lim P (A) = . n→∞ n Pozor! V přı́padě statistické definice tento podı́l odhadujeme na základě výsledků skutečně provedených pokusů! c Rost 2006 ° pokračovánı́ přı́kladu hodu mincı́ Pomocı́ jednoduchého programu v prostředı́ R vytvořı́me program simulujı́cı́ hod ideálnı́ mincı́. Budeme sledovat pravděpodobnost padnutı́ lı́ce, tak jak budeme zvyšovat počet opakovánı́. simulate.coin<-function(n){ vek<-rep(NA,n) for(i in 1:n){ vek[i]<-(sum(round(runif(i,0,1),0))/i)} vek plot(1:n,vek,type="l",xlab="n",ylab="Probability") abline(h=0.5,col="red",lwd=2) } c Rost 2006 ° 0.6 0.4 0.2 0.0 Probability 0.8 1.0 pokračovánı́ přı́kladu hodu mincı́ 0 200 400 600 800 1000 n c Rost 2006 ° Pravidla pro počı́tánı́ s pravděpodobnostmi: • Jsou-li jevy A a B vzájemně neslučitelné, pak P (A ∪ B) = P (A) + P (B) • Jsou-li jevy A a B dva libovolné jevy, pak P (A ∪ B) = P (A) + P (B) − P (A ∩ B) • Jsou-li jevy A a Ā vzájemně opačné jevy, pak P (Ā) = 1 − P (A) c Rost 2006 ° Pravidla pro počı́tánı́ s pravděpodobnostmi: • Platı́-li že A ⊂ B, pak P (A) ≤ P (B) • Je-liA ⊂ B, pak P (B − A) = P (B) − P (A) • Jsou-li A, B dva libovolné jevy, pak P (B − A) = P (B) − P (A ∩ B) c Rost 2006 ° Přı́klad V antikvariátu majı́ knihy, z nichž 10% má vytrženou stranu, 30% je popsáno poznámkami a 65 % knih je bez závad. Jaká je pravděpodobnost, že kniha, kterou si vyberu, je popsána poznámkami, ale má všechny strany? c Rost 2006 ° Podmı́něná pravděpodobnost Pokud je jev A vázán na uskutečněnı́ jevu B, pak tento jev nazýváme jevem podmı́něným jevu B a značı́me jej A|B. Při určovánı́ podmı́něné pravděpodobnosti se množina všech možných výsledků náhodného pokusu omezı́ pouze na ty výsledky, jež vyhovujı́ dané podmı́nce. Pravděpodobnost podmı́něného jevu pak definujeme takto: P (A|B) = P (A ∩ B) P (B) kde P (B) > 0. Z výše uvedeného vztahu plyne následujı́cı́ rovnice: P (A ∩ B) = P (A|B) · P (B) Zaměnı́me-li pak formálně A a B P (B ∩ A) = P (B|A) · P (A) c Rost 2006 ° Tyto vzorce sloužı́ pro výpočet současného výskytu jevů A a B a bývajı́ označovány jako věty o násobenı́ pravděpodobnostı́. Pokud se bude jednat o nezávislé jevy, pak se věta o násobenı́ pravděpodobnostı́ zjednodušı́, nebot’ platı́: P (A|B) = P (A) P (B|A) = P (B) a tedy P (A ∩ B) = P (A) · P (B). Obdobně pak pro n nezávislých jevů. c Rost 2006 ° Přı́klad Ve sklepě máte 70 kompotů: 35 hruškových, 20 jablkových a 15 třešňových. Pošlete svého slabšı́ho sourozence (stejně jako vždy) pro 3 kompoty. Pokud přinese všechny hruškové, budete maximálně spokojeni a sourozenec bude pochválen. Pokud přinese všechny třešňové, půjde znova. V jiném přı́padě to ,,kousnete”. Sourozenc pochopitelně nevı́, na co máte chut’. Jaká je pravděpodobnost, že: • sourozenec bude pochválen, • to kousneme, • půjde znova chudák. c Rost 2006 ° Bayesův vzorec Pokud majı́ náhodné jevy B1, B2, B3, · · · , Bn nenulové pravděpodobnosti a zároveň tvořı́ úplný rozklad pravděpodobnostnı́ho prostoru Ω, tj. Ω= n [ Bi , přičemž Bi ∩ Bj = ∅ pro i 6= j , i=1 lze libovolný jev A vyjádřit pomocı́ jevů Bj pro j = 1, 2, · · · , n takto: A = (A ∩ B1) ∪ (A ∩ B2) ∪ · · · ∪ (A ∩ Bn) . Postupným užitı́m věty o sčı́tánı́ pravděpodobnostı́ pro neslučitelné náhodné jevy a věty o násobenı́ pravděpodobnostı́ zı́skáme předpis pro výpočet pravděpodobnosti jevu A, někdy také nazývaný vzorec úplné pravděpodobnosti. P (A) = n X P (A|Bj ) · P (Bj ) j=1 c Rost 2006 ° Bayesův vzorec Pokud je i P (A) > 0, pak pro každý index i ∈ {1, 2, · · · , n} bude platit: P (A|Bi) · P (Bi) j=1 P (A|Bj ) · P (Bj ) P (Bi|A) = Pn Tento vztah budeme nazývat Bayesovým vzorcem. c Rost 2006 ° Praktický přı́klad Studiem odborných časopisů jsme zjistili relativnı́ četnosti mozkových přı́hod a vysokého krevnı́ho tlaku u starých osob. Známe tyto informace: 1 Deset procent lidı́ ve veku 70 let utrpı́ mozkovou přı́hodu v následujı́cı́ch pěti letech. P (M P ) = 0, 1 a tedy P (M P c ) = 0, 9 2 Dále vı́me, že 40 procent lidı́ kteřı́ utrpěli mozkovou přı́hodu v pěti letech po 70 trpı́ (trpělo) vysokým krevnı́m tlakem. P (KT |M P ) = 0, 4 3 Z lidı́ kteřı́ neměli mozkovou přı́hodu do 75 let mělo pouze 20 procent lidı́ vysoký krevnı́ tlak. P (KT |M P c ) = 0, 2 c Rost 2006 ° Zajı́majı́ nás dvě otázky: 1 Jaká je pravděpodobnost, že 70 letý pacient má vysoký krevnı́ tlak? P (KT ) =? 2 Jaká je pravděpodobnost, že 70 letý pacient s vysokým krevnı́m tlakem utrpı́ mozkovou přı́hodu v následujı́cı́ch pěti letech? P (M P |KT ) =? Řešenı́: P (KT ) = P (KT |M P )P (M P ) + P (KT |M P c)P (M P c ) = 0, 4 · 0, 1 + 0, 2 · 0, 9 = 0, 22 P (M P |KT ) = P (M P ∩ KT ) P (KT |M P ).P (M P ) 0, 4 · 0, 1 = = = 0, 182 P (KT ) P (KT ) 0, 22 c Rost 2006 °
Podobné dokumenty
Podm´ınená pravdepodobnost, náhodná velicina a zp˚usoby jej´ıho
jako vždy) pro 3 kompoty. Pokud přinese všechny hruškové,
budete maximálně spokojeni a sourozenec bude pochválen.
Pokud přinese všechny třešňové, půjde znova. V jiném přı́padě
to ...
Úvod do systémové a operační analysy
výzkumu (soustavě matematických vztahů) mohou být definovány i dva nebo vı́ce problémů
(úloh) operačnı́ho výzkumu podle toho, kterou veličinu modelu chceme považovat za kriteriálnı́
f...
3ps432 kognitivní psychologie a tvorˇivost v informatice
Jeden ECTS kredit odpovı́dá 26 hodinám studijnı́ zátěže průměrného studenta.
(počet hodin přednášek týdně / počet hodin cvičenı́ týdně)
Cvičení z biostatistiky
na začátek nového řádku symbol +. To znamená, že program čeká na ukončení příkazu
na tomto řádku (popř. dalších). Jestliže se symbol objeví omylem, pak můžeme psaní
příkazu zrušit klávesou ESC nebo...
6.1 Generování (pseudo)náhodných čísel 6.2 Diskrétní rozdělení
I Příklad 6.6. Nicolas Bernoulli navrhl hazardní hru, při které se hází mincí dokud nepadne hlava.
Pokud padne hlava v n-tém hodu, dostane hráč od kasína 2n−1 Kč. Původně šlo samozřejmě o jinou
měn...
offline v PDF - Mathematical Assistant on Web
probı́hajı́cı́ch fyzikálnı́ch jevů. (Fyzikálnı́ popis světa tak je prezentovaný středoškolskou fyzikou je častou pouze jakousi aproximacı́ ve které jevy probı́hajı́ konstantnı́ rychlostı́ ...
Aplikovaná matematika a fyzikáln´ı výpocty
Lineárnı́ obal konečné množiny vektorů je množina všech lineárnı́ch kombinacı́ těchto vektorů. Lineárnı́ obal nekonečné množiny je sjednocenı́ lineárnı́ch
obalů všech jejı́ch konec...