A, P
Transkript
Základnı́ pojmy a úvod do teorie
pravděpodobnosti
Ing. Michael Rost, Ph.D.
Co je to Statistika?
• Statistiku lze definovat jako vědnı́ obor, zabývajı́cı́ se hromadnými jevy a procesy.
• Statistika zahrnuje jak zı́skávánı́, tak i analýzu a interpretaci
napozorovaných dat. Cı́lem statistického zpracovánı́ dat je
podánı́ informace o vlastnostech, povaze a zákonitostech
projevujı́cı́ch se na pozorovaných datech.
Počátky statistiky lze nalézt již ve starověku. Dalšı́ rozmach 16
– 17 stoletı́. Souvislost s hazardnı́mi hrami.
c Rost 2006
°
Hromadný jev
• Jevy, které se vyskytujı́ v masovém měřı́tku a mohou se
neustále opakovat, nazýváme hromadnými jevy.
• V zásadě existujı́ dva typy hromadných jevů:
– Prvnı́m je opakované měřenı́ sledované vlastnosti jednoho
předmětu.
– Druhým typem je pak sledovánı́ vlastnosti(ı́) na předem
definované množině sledovaných předmětů.
Hranice mezi individuálnı́m a hromadným pojetı́m je neostrá.
c Rost 2006
°
Významná jména spojená se statistikou
Mezi přednı́ světové statistiky bezesporu patřı́ tato jména:
Galileo Galilei, Blaise Pascal, Piere Fermat, Jacob Bernoulli,
Thomas Bayes, Karl Friedrich Gauss, Andrej Andrejevič Markov,
Andrej Nikolajevič Kolmogorov, Karel Pearson, atd . . .
c Rost 2006
°
Základnı́ pojmy
• Statistický soubor je definován jako množina sledovaných
statistických jednotek.
• Rozlišujeme základnı́ statistický soubor a výběrový statistický soubor.
• Počet jednotek v analyzovaném statistickém souboru se
nazývá rozsah souboru.
• Z hlediska rozsahu souboru se může jednat o konečný či
nekonečný soubor.
c Rost 2006
°
• Statistická jednotka je obecně nositelem sledovaných vlastnostı́, tj. statistických znaků.
• Statistický znak je obrazem určité vlastnosti každé statistické jednotky ze statistického souboru.
• Hodnota statistického znaku je pak označenı́m stupně
dané vlastnosti.
c Rost 2006
°
• Hodnota statistického znaku se často nazývá pozorovánı́.
• Jeden údaj, záznam = datum
• Vı́ce údajů, záznamů = data
Pozor pedanti to rozlišujı́ !!!
c Rost 2006
°
Dva druhy našeho uvažovánı́
Dle našeho přı́stupu k chápánı́ okolnı́ho světa můžeme rozeznávat
dva přı́stupy:
1) Indukce znamená usuzovánı́ z partikulárnı́ho na obecné.
2) Dedukce znamená usuzovánı́ na základě obecných poznatků
či axiómů na partikulárnı́.
c Rost 2006
°
Typy dat
V praxi se lze setkat s různými druhy dat. Přı́kladem mohou být
záznamy o pohlavı́ dı́těte, počet potratů, hodnoty systolického
tlaku, údaje z CT, hmotnost pacientů, atd.
• Nominálnı́ znaky,
• Ordinálnı́ znaky,
• Intervalové znaky–metrické znaky,
• Poměrové veličiny–kardinálnı́ veličiny.
Pokud existujı́ pouze dvě hodnoty jichž může sledovaný znak
nabývat, pak takový znak nazýváme dichotomickým či binárnı́m.
c Rost 2006
°
Podle počtu hodnot, kterých může daný statistický znak
nabývat lze znaky dělit na diskrétnı́ a spojité.
• Diskrétnı́ znaky:
Jsou takové znaky, které mohou nabýt konečného či
spočetného počtu hodnot. Přı́kladem může být počet lidı́
zaměstnaných v Okresnı́ nemocnici v Českých Budějovicı́ch.
• Spojité znaky:
Jsou takové statistické znaky, které mohou nabývat nekonečně mnoha hodnot v konečném či nekonečném
intervalu. Teplota pacienta nebo jeho KT.
c Rost 2006
°
Statistický software
• V současné době existuje celá řada statistických programů,
které umožňujı́ provádět složité statistické výpočty.
• Zájemce může využı́vat programy jako jsou S-plus, SAS,
SPSS, Statistica, Minitab, GAUSS, Octave, Maple, Matlab.
• Jedná se však o dosti drahé komerčnı́ programy. Cena se
pohybuje řádově v desetitisı́cı́ch za licenci.
• Náš software je se jmenuje STATISTICA.
c Rost 2006
°
Pauza na kávičku a cigaretku cca 7 min.
c Rost 2006
°
Náhodný jev a pokus
Pokud realizace určitého souboru podmı́nek nevede k jednoznačnému výsledku ani při opakované realizaci daného souboru
podmı́nek, pak se lze oprávněně domnı́vat, že výsledek je závislý
na dalšı́ch, blı́že nespecifikovaných podmı́nkách. Ty lze v tomto
smyslu označit za náhodné činitele.
• Jevy, které v závislosti na náhodě mohou, ale nemusı́ při
uskutečněnı́ daného souboru podmı́nek nastat, nazýváme
náhodnými jevy.
• Samotnou realizaci podmı́nek vedoucı́ k určitému výsledku
pak nazveme náhodným pokusem.
c Rost 2006
°
Jak chápat tyto pojmy?
Pojem pokus můžeme v souvislosti s počtem pravděpodobnosti
chápat dosti široce.
• Za pokus lze považovat např. počet vyrobených výrobků
během pracovnı́ směny, či celkovou spotřebu el. energie mezi
20 hodinou a 7 hodinou rannı́ v Českých Budějovicı́ch.
• Za náhodný pokus lze považovat i zjišt’ovánı́ počtu bı́lých
krvinek u pacienta před a po terapii.
Přı́kladů je celá řada, jistě sami vymyslı́te dalšı́...
c Rost 2006
°
S náhodnými jevy lze pracovat jako s množinami. Je tedy
možné při výpočtech souvisejı́cı́ch s pravděpodobnostı́ využı́t
množinových operacı́.
• Symbolem A pro tuto chvı́li označme množinu.
• To, že a je prvkem množiny A, zapı́šeme takto a ∈ A.
• To, že a1, a2 a a3 jsou prvky množiny A,
lze zapsat jako A ∈ {a1, a2, a3}
• Prázdnou množinu budeme značit pomocı́ symbolu {∅}.
c Rost 2006
°
Základnı́ operace
Jestliže při každé realizaci jevu A nastává jev B, pak řı́káme,
že jev A má za následek jev B, nebo jinými slovy, jev A implikuje
jev B. Tuto skutečnost zapı́šeme jako A ⊂ B.
Jev který spočı́vá v realizaci alespoň jednoho z jevů A či B,
nazýváme sjednocenı́ jevů A a B. Situaci lze zachytit symbolicky
jako A ∪ B.
Pokud máme vı́ce náhodných jevů např.: A1, A2, . . . , An, pak jejich
sjednocenı́m
n
[
Ai ,
i=1
budeme rozumět takový jev, který zahrnuje uskutečněnı́ alespoň
jednoho z jevů A1, A2, . . . , An.
c Rost 2006
°
Základnı́ operace
Průnikem náhodných jevů A a B budeme rozumět současnou
realizaci obou jevů, tj. A i B. Tento stav zapı́šeme symbolicky
jako A ∩ B.
Průnik n jevů Ai pro i = 1, 2, . . . , n, tj. současnou realizaci všech
n jevů Ai symbolicky zapı́šeme
n
\
Ai.
i=1
Jevy A a B nazveme jevy opačnými (též doplňkové či komplementárnı́), jestliže budou platit následujı́cı́ relace A ∪ B = Ω a
zároveň A ∩ B = ∅.
Doplněk k jevu A se zpravidla značı́ symbolem Ā nebo Ac. Jev
Ā spočı́vá v nenastoupenı́ jevu A.
c Rost 2006
°
Jev jistý a jev nemožný
Jev, který nastává vždy při realizaci určitého komplexu
podmı́nek, budeme označovat jevem jistým a zapisovat pomocı́
symbolu Ω nebo E.
Naopak jev, který se nevyskytne nikdy, přestože se realizuje
komplex určitých podmı́nek, budeme nazývat jevem nemožným
a označovat pomocı́ symbolu ∅.
Vymyslı́te přı́klady takovýchto jevů?
c Rost 2006
°
Výběrový prostor
Pokud budeme uvažovat náhodný pokus, v jehož průběhu
házı́me dvakrát mincı́, pak jsou možné pouze čtyři výsledky:
{{hlava, hlava}, {hlava, orel}, {orel, hlava}, {orel, orel}}
Množina všech možných výsledků se zpravidla nazývá množina
možných výsledků, někdy také výběrový prostor. Symbolicky
bývá označována pomocı́ symbolu Ω.
Jev je v této souvislosti definován, jako podmnožina množiny
možných výsledků. Uvědomte si, že jevem může být i samotná
množina možných výsledků, což je jev jistý.
c Rost 2006
°
Jevy
Je třeba rozlišit:
• Elementárnı́ jevy - tyto jevy nelze dále rozložit.
• Složené jevy - jsou složeny minimálně ze dvou elementárnı́ch
jevů.
c Rost 2006
°
σ-algebra
Pro správné zavedenı́ matematického modelu je nutné zavést
jistý systém množin, označme jej A. Ten nazýváme algebrou,
přesněji σ-algebrou, pokud platı́:
A, B ∈ A ⇒ A ∪ B ∈ A
(1)
A, B ∈ A ⇒ A ∩ B ∈ A
(2)
A ∈ A ⇒ Ā ∈ A
(3)
Ω ∈ A,
(4)
∅∈A
c Rost 2006
°
Pravděpodobnostnı́ funkce
Rozdělenı́m pravděpodobnosti na množině Ω = {a1, a2, · · · , an}
s algebrou A nazýváme každou nezápornou funkci P na
množině Ω takovou, že
P (a1) + P (a2) + · · · + P (an) = 1
Trojici A, Ω, P , kde P je rozdělenı́m pravděpodobnosti na množině
Ω s algebrou A budeme nazývat pravděpodobnostnı́m prostorem.
Pokud bude zároveň platit, že Ω = {a1, a2, · · · , an} a
1
,
n
tak pravděpodobnostnı́ funkci P nazveme klasickým rozdělenı́m
pravděpodobnosti na množině Ω a trojici (A, P, Ω) nazveme
klasickým rozdělenı́m pravděpodobnosti.
P (a1) = P (a2) = · · · = P (an) =
c Rost 2006
°
Axionometrická definice
pravděpodobnosti
Autorem je A. N. Kolmogorov. Definice je založena na
předpokladu, že náhodný jev je podmnožinou výběrového
prostoru.
Necht’ je ke každému jevu A ∈ Ω přiřazeno určité čı́slo
P (A), které nazveme pravděpodobnostı́ jevu. Necht’ je tato
pravděpodobnost P (.) vždy nezáporná tj. bude platit
P (A) ≥ 0
axiom nezápornosti.
Pravděpodobnost sjednocenı́ konečného či spočetně nekonečného
(tj. takového počtu jevů které lze očı́slovat za pomoci přirozených
čı́sel) počtu neslučitelných jevů A1 ∪A2 ∪· · · je rovna součtu jejich
pravděpodobnostı́, tedy
P (A1 ∪ A1 ∪ · · · ) = P (A1) + P (A2) + · · ·
axiom aditivity.
c Rost 2006
°
Axionometrická definice
pravděpodobnosti
Pravděpodobnost jistého jevu je rovna jedné, tj. musı́ platit:
P (Ω) = 1
axiom normy.
Poznámka: Axiomatická definice pravděpodobnosti matematicky přesně a nerozporně vymezuje pojem pravděpodobnosti, ale
nedává návod jak ji vypočı́st.
c Rost 2006
°
Klasická definice pravděpodobnosti
Jejı́m autorem byl P. S. Laplace. Při stanovenı́ čı́selné hodnoty
pravděpodobnosti vycházı́me z klasické definice pravděpodobnosti.
Tu lze definovat takto:
Může-li jistý prováděný pokus vykázat konečný počet n
různých výsledků (hovořı́me o nich jako o elementárnı́ch
jevech), které jsou stejně možné a jestliže m z těchto
výsledků má za následek nastoupenı́ jevu A (v podstatě
jevy přı́znivé), kdežto zbylých n − m výsledků je vylučuje,
potom je pravděpodobnost jevu A rovna:
m
P (A) =
n
Základnı́m předpokladem klasické definice pravděpodobnosti
je však stejná možnost či pravděpodobnost konečného počtu
elementárnı́ch jevů.
c Rost 2006
°
Máte minci?
Jaká je pravděpodobnost, že padne rub? Dle klasické definice
pravděpodobnosti
1
P (rub) = = 0, 5 .
2
Proved’me však malý experiment: Házejme mincı́ a sledujme
kolikrát nám padne rub. výsledky si zaznamenejte.
c Rost 2006
°
Statistická definice pravděpodobnosti
Statistická definice pravděpodobnosti se zakládá na relativnı́
četnosti jevu A, jehož pravděpodobnost P (A) se snažı́me určit.
V podstatě odhadujeme pravděpodobnost pomocı́ relativnı́ četnosti
v sérii dostatečně velkého počtu nezávislých pokusů, což lze
symbolicky zapsat takto:
m
P (A) ≈
jinak řečeno
n
m
lim P (A) = .
n→∞
n
Pozor! V přı́padě statistické definice tento podı́l odhadujeme na základě výsledků skutečně provedených pokusů!
c Rost 2006
°
pokračovánı́ přı́kladu hodu mincı́
Pomocı́ jednoduchého programu v prostředı́ R vytvořı́me
program simulujı́cı́ hod ideálnı́ mincı́. Budeme sledovat pravděpodobnost padnutı́ lı́ce, tak jak budeme zvyšovat počet opakovánı́.
simulate.coin<-function(n){
vek<-rep(NA,n)
for(i in 1:n){
vek[i]<-(sum(round(runif(i,0,1),0))/i)}
vek
plot(1:n,vek,type="l",xlab="n",ylab="Probability")
abline(h=0.5,col="red",lwd=2)
}
c Rost 2006
°
0.6
0.4
0.2
0.0
Probability
0.8
1.0
pokračovánı́ přı́kladu hodu mincı́
0
200
400
600
800
1000
n
c Rost 2006
°
Pravidla pro počı́tánı́ s
pravděpodobnostmi:
• Jsou-li jevy A a B vzájemně neslučitelné, pak
P (A ∪ B) = P (A) + P (B)
• Jsou-li jevy A a B dva libovolné jevy, pak
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
• Jsou-li jevy A a Ā vzájemně opačné jevy, pak
P (Ā) = 1 − P (A)
c Rost 2006
°
Pravidla pro počı́tánı́ s
pravděpodobnostmi:
• Platı́-li že A ⊂ B, pak
P (A) ≤ P (B)
• Je-liA ⊂ B, pak
P (B − A) = P (B) − P (A)
• Jsou-li A, B dva libovolné jevy, pak
P (B − A) = P (B) − P (A ∩ B)
c Rost 2006
°
Přı́klad
V antikvariátu majı́ knihy, z nichž 10% má vytrženou stranu,
30% je popsáno poznámkami a 65 % knih je bez závad. Jaká
je pravděpodobnost, že kniha, kterou si vyberu, je popsána
poznámkami, ale má všechny strany?
c Rost 2006
°
Podmı́něná pravděpodobnost
Pokud je jev A vázán na uskutečněnı́ jevu B, pak tento
jev nazýváme jevem podmı́něným jevu B a značı́me jej A|B.
Při určovánı́ podmı́něné pravděpodobnosti se množina všech
možných výsledků náhodného pokusu omezı́ pouze na ty výsledky,
jež vyhovujı́ dané podmı́nce. Pravděpodobnost podmı́něného jevu
pak definujeme takto:
P (A|B) =
P (A ∩ B)
P (B)
kde P (B) > 0.
Z výše uvedeného vztahu plyne následujı́cı́ rovnice:
P (A ∩ B) = P (A|B) · P (B)
Zaměnı́me-li pak formálně A a B
P (B ∩ A) = P (B|A) · P (A)
c Rost 2006
°
Tyto vzorce sloužı́ pro výpočet současného výskytu jevů A a
B a bývajı́ označovány jako věty o násobenı́ pravděpodobnostı́.
Pokud se bude jednat o nezávislé jevy, pak se věta o násobenı́
pravděpodobnostı́ zjednodušı́, nebot’ platı́:
P (A|B) = P (A)
P (B|A) = P (B)
a tedy
P (A ∩ B) = P (A) · P (B).
Obdobně pak pro n nezávislých jevů.
c Rost 2006
°
Přı́klad
Ve sklepě máte 70 kompotů: 35 hruškových, 20 jablkových
a 15 třešňových. Pošlete svého slabšı́ho sourozence (stejně
jako vždy) pro 3 kompoty. Pokud přinese všechny hruškové,
budete maximálně spokojeni a sourozenec bude pochválen.
Pokud přinese všechny třešňové, půjde znova. V jiném přı́padě
to ,,kousnete”. Sourozenc pochopitelně nevı́, na co máte chut’.
Jaká je pravděpodobnost, že:
• sourozenec bude pochválen,
• to kousneme,
• půjde znova chudák.
c Rost 2006
°
Bayesův vzorec
Pokud majı́ náhodné jevy B1, B2, B3, · · · , Bn nenulové pravděpodobnosti a zároveň tvořı́ úplný rozklad pravděpodobnostnı́ho
prostoru Ω, tj.
Ω=
n
[
Bi ,
přičemž Bi ∩ Bj = ∅ pro i 6= j ,
i=1
lze libovolný jev A vyjádřit pomocı́ jevů Bj pro j = 1, 2, · · · , n
takto:
A = (A ∩ B1) ∪ (A ∩ B2) ∪ · · · ∪ (A ∩ Bn) .
Postupným užitı́m věty o sčı́tánı́ pravděpodobnostı́ pro neslučitelné náhodné jevy a věty o násobenı́ pravděpodobnostı́
zı́skáme předpis pro výpočet pravděpodobnosti jevu A, někdy
také nazývaný vzorec úplné pravděpodobnosti.
P (A) =
n
X
P (A|Bj ) · P (Bj )
j=1
c Rost 2006
°
Bayesův vzorec
Pokud je i P (A) > 0, pak pro každý index i ∈ {1, 2, · · · , n} bude
platit:
P (A|Bi) · P (Bi)
j=1 P (A|Bj ) · P (Bj )
P (Bi|A) = Pn
Tento vztah budeme nazývat Bayesovým vzorcem.
c Rost 2006
°
Praktický přı́klad
Studiem odborných časopisů jsme zjistili relativnı́ četnosti mozkových přı́hod
a vysokého krevnı́ho tlaku u starých osob. Známe tyto informace:
1 Deset procent lidı́ ve veku 70 let utrpı́ mozkovou přı́hodu v následujı́cı́ch
pěti letech.
P (M P ) = 0, 1
a tedy
P (M P c ) = 0, 9
2 Dále vı́me, že 40 procent lidı́ kteřı́ utrpěli mozkovou přı́hodu v pěti letech
po 70 trpı́ (trpělo) vysokým krevnı́m tlakem.
P (KT |M P ) = 0, 4
3 Z lidı́ kteřı́ neměli mozkovou přı́hodu do 75 let mělo pouze 20 procent
lidı́ vysoký krevnı́ tlak.
P (KT |M P c ) = 0, 2
c Rost 2006
°
Zajı́majı́ nás dvě otázky:
1 Jaká je pravděpodobnost, že 70 letý pacient má vysoký krevnı́ tlak?
P (KT ) =?
2 Jaká je pravděpodobnost, že 70 letý pacient s vysokým krevnı́m tlakem
utrpı́ mozkovou přı́hodu v následujı́cı́ch pěti letech? P (M P |KT ) =?
Řešenı́:
P (KT ) = P (KT |M P )P (M P ) + P (KT |M P c)P (M P c ) =
0, 4 · 0, 1 + 0, 2 · 0, 9 = 0, 22
P (M P |KT ) =
P (M P ∩ KT )
P (KT |M P ).P (M P )
0, 4 · 0, 1
=
=
= 0, 182
P (KT )
P (KT )
0, 22
c Rost 2006
°
Podobné dokumenty
Podm´ınená pravdepodobnost, náhodná velicina a zp˚usoby jej´ıho
jako vždy) pro 3 kompoty. Pokud přinese všechny hruškové,
budete maximálně spokojeni a sourozenec bude pochválen.
Pokud přinese všechny třešňové, půjde znova. V jiném přı́padě
to ...
Úvod do systémové a operační analysy
výzkumu (soustavě matematických vztahů) mohou být definovány i dva nebo vı́ce problémů
(úloh) operačnı́ho výzkumu podle toho, kterou veličinu modelu chceme považovat za kriteriálnı́
f...
3ps432 kognitivní psychologie a tvorˇivost v informatice
Jeden ECTS kredit odpovı́dá 26 hodinám studijnı́ zátěže průměrného studenta.
(počet hodin přednášek týdně / počet hodin cvičenı́ týdně)
Cvičení z biostatistiky
na začátek nového řádku symbol +. To znamená, že program čeká na ukončení příkazu
na tomto řádku (popř. dalších). Jestliže se symbol objeví omylem, pak můžeme psaní
příkazu zrušit klávesou ESC nebo...
6.1 Generování (pseudo)náhodných čísel 6.2 Diskrétní rozdělení
I Příklad 6.6. Nicolas Bernoulli navrhl hazardní hru, při které se hází mincí dokud nepadne hlava.
Pokud padne hlava v n-tém hodu, dostane hráč od kasína 2n−1 Kč. Původně šlo samozřejmě o jinou
měn...
offline v PDF - Mathematical Assistant on Web
probı́hajı́cı́ch fyzikálnı́ch jevů. (Fyzikálnı́ popis světa tak je prezentovaný středoškolskou fyzikou je častou pouze jakousi aproximacı́ ve které jevy probı́hajı́ konstantnı́ rychlostı́ ...
Aplikovaná matematika a fyzikáln´ı výpocty
Lineárnı́ obal konečné množiny vektorů je množina všech lineárnı́ch kombinacı́ těchto vektorů. Lineárnı́ obal nekonečné množiny je sjednocenı́ lineárnı́ch
obalů všech jejı́ch konec...