1 2 1
3 PROBABILITĂŢI ŞI STATISTICĂ MA- TEMATICĂ 3.1 SPAŢIU PROBABILISTIC, DEFINIŢII, PROPRIE- TĂŢI Teoria probabilităţilor este analiza matematică a noţiunii de experienţă aleatoare (sau aleatorie, întâmplătoare, lat. aleatorius < alea - zar). Noţiunile de bază ale statisticii şi calculului probabilităţilor s-au format şi au circulat din cele mai vechi timpuri, le întâlnim la vechii egipteni care măsurau terenurile agricole, evaluau recoltele, etc. Calculul probabilităţilor s-a născut în secolul al XVII-lea, ca o modelare matematică a şansei, ca o ştiinţă a jocului de noroc. Noţiunile fundamentale ale acestei teoriei probabilităţilor sunt cele de eveniment şi de probabilitate. Prin formalizarea acestor noţiuni se ajunge la modelul teoretic bazat pe teoria mulţimilor propus de Kolmogorov în 1929. Fie o experienţă aleatoare oarecare. Rezultatul experienţei nu poate fi determinat decât în urma realizării experienţei. Fie Ω = {ω} mulţimea tuturor rezultatelor posibile în experienţa dată şi A un eveniment oarecare legat de experienţa considerată, adică producerea sau neproducerea unui fenomen legat de experienţa considerată. Putem spune că eveninentul A a avut loc sau nu a avut loc, numai în urma realizării experienţei. De aceea, evenimentul A poate fi identificat cu o mulţime de rezultate ω- rezultatele favorabile realizării sale- adică evenimentul A poate fi identificat cu o submulţime a lui. Elementele se pot numi atunci evenimente elementare. În acest fel operaţiile de reuniune, intersecţie, complementare (negare, trecere la contrariu) a evenimentelor coincid cu operaţiile corespunzătoare asupra mulţimilor şi deci mulţimea evenimentelor care ne vor interesa 2
trebuie să fie închisă (stabilă) în raport cu aceste operaţii. Probabilitatea este o funcţie numerică definită pe mulţimea evenimentelor, funcţie ale cărei proprietăţi trebuie să fie asemănătoare celor ale frecvenţei de realizare a evenimentului. Definiţia 3.1. Fie Ω = {ω} mulţimea rezultatelor posibile întro experienţă aleatoare. Fie S o mulţime de părţi ale lui Ω care formează în raport cu operaţiile obişnuite cu mulţimi o σ- algebră, adică are proprietăţile: (i) Ω S; mulţimea tuturor rezultatelor posibile face parte din S; (ii) A, B S A\B S; odată cu două mulţimi Sconţine şi diferenţa lor; (iii) A i S, i = 1, 2,... A i S; orice reuniune de mulţimi din S este din S. Mulţimea S se numeşte mulţimea evenimentelor legate de experienţa considerată. Din definiţia dată rezultă că mulţimea S a evenimentelor este închisă în raport cu operaţiile de reuniune, intersecţie, diferenţa şi complementară. Evenimentul Ω se numeşte evenimentul sigur; evenimentul se numeşte evenimentul imposibil; evenimentul A\B se numeşte diferenţa evenimentelor A şi B; evenimentul C A = Ω\A se numeşte evenimentul contrariu al lui A; etc. Evenimentele A şi B se numesc incompatibile dacă nu se pot realiza în acelaşi timp, adică dacă A B =. Orice eveniment şi contrariul său sunt evenimente incompatibile. Un eveniment se numeşte compus dacă el este reuniunea 3
a altor două evenimente diferite de el. Evenimentele elementare ω sunt diferite de evenimentul imposibil şi nu sunt compuse. Cunoaşterea evenimentelor numai ca apartenenţă la categoria de a fi întâmplătoare nu este o informaţie suficientă pentru pătrunderea fenomenelor ce le modelează. Avem nevoie de legi de desfăşurare a fenomenelor, de cunoaşterea gradului (a şansei) de realizare ale diferitelor evenimente. Sunt obiect de studiu al teoriei probabilităţilor şi al statisticii matematice, numai experienţele care posedă proprietatea de stabilitate a frecvenţelor de apariţie a evenimentelor asociate, adică acelea care pot oferi posibilităţi de formulare a legilor obiective după care se desfăşoară şi o prognoză privind evoluţia lor viitoare. Datorită caracterului complex al categoriei de probabilitate ca măsură a gradului de realizare a evenimentelor, evoluţia acestuia a parcurs un drum foarte lung de la metoda empirică (statistică) până la cea axiomatică. La elucidarea ei şi-au adus contribuţia matematicieni de seamă ca: Fermat, Pascal, Borel, Kolmogorov, Onucescu şi alţii. Noţiunea de probabilitate a fost extrasă din noţiunea de frecvenţă. Definiţia 3.2. O funcţie p : S R + se numeşte probabilitate pe mulţimea evenimentelor dacă are următoarele proprietăţi: (i) p(ω) = 1; (evenimentul sigur are probabilitatea egală cu unitatea); (i) dacă A i S, i = 1, 2,..., sunt evenimente incompatibile două câte două A i A j =, i j = 1, 2,... atunci ( ) p A i = p(a i ); (proprietatea de aditivitate numărabilă). 4
Dacă evenimentele sunt incompatibile două câte două A i A j, i j = 1, 2,..., vom scrie A i în loc de A i ; la fel în cazul finit. Definiţia 3.3. Un triplet (Ω, S, p) se numeşte spaţiu probabilistic (de probabilitate). Obiectul studiului teoriei probabilităţilor este spaţiul probabilistic. Exemplul 3.1. Fie într-o experienţă aleatoare mulţimea evenimentelor elementare Ω = ω 1, ω 2,..., ω N şi fie mulţimea evenimentelor S = P (Ω), mulţimea părţilor lui Ω. Fie p(ω k ) = 1 N, k = 1, 2,..., N, adică evenimentele elementare sunt egal posibile. Atunci pentru un eveniment A oarecare legat de experienţă p(a) = r N = nr.rezultatelor favorabile nr.rezultatelor posibile, unde r = A este numărul evenimentelor elementare care compun pe A (rezultatele favorabile lui A). Tripletul (Ω, S, p) este spaţiul probabilistic al modelului clasic al lui Laplace al teoriei probabilităţilor. În cazul particular al experienţei aruncării unui zar, N = 6 şi ω i = i, i = 1, 2,..., 6 este evenimentul apariţiei feţei i. În cazul experienţei aruncării de n ori a unei monede, mulţimea evenimentelor elementare este de forma ω = (ε 1, ε 2,..., ε n ) unde ε i = 0 sau 1 după cum la a i-a aruncare a ieşit faţa cu stema sau faţa cu valoarea. În acest caz N = 2 n. Evenimentul care constă în apariţia de k ori a feţei cu valoarea este A = {(ε 1, ε 2,..., ε n ) ε 1 + ε 2 +... + ε n = k}. Atunci A = C n k, p(a) = Cn k 2 n. 5
Din definiţiile date rezultă uşor că într-un spaţiu probabilistic au loc următoarele proprietăţi: (i) p(ca) = 1 p(a); (proprietatea probabilităţii evenimentului contrar); (ii) A B p(a) p(b); (probabilitatea este funcţie crescătoare); (iii) 0 p(a) 1; (probabilitatea are valori pozitive cel mult egale cu unitatea); (iv) p(a B) = p(a) + p(b) p(a B) sau mai general p(a 1 A 2... A n ) = = p(a i ) p(a i A j ) + p(a i A j A k )... (formula includerii şi excluderii); (v) dacă A n B adică A 1 A 2... A n A n+1...b = atunci lim n p(a n ) = p(b) (proprietatea de continuitate la dreapta a probabilităţii) (vi) dacă A n B adică A 1 A 2... A n A n+1...b = atunci lim n p(a n ) = p(b); ( proprietatea de continuitate la stânga a probabilităţii). 6 A i A i
Dacă A, B sunt două evenimente şi p(b) > 0 atunci raportul se numeşte probabilitatea evenimentului A p(a B) p(b) condiţionat de B şi se notează p(a B) sau p B (A). Deci adică p(a B) = p(a B) p(b) p(a B) = p(b)p(a B) = p(a)p(b A). Când p(a B) = p(a) adică dacă şi numai dacă p(anb) = p(a)p(b) evenimentele A,B se numesc independente. În general avem relaţia p(a 1 A 2... A n ) = = p(a 1 A 2... A n 1 )p(a n A 1... A n 1 ) =... = p(a 1 )p(a 2 A 1 )p(a 3 A 1 A 2 )...p(a n A 1 A 2... A n 1 ). Dacă Ω = H i se spune că evenimentele H i, i = 1, 2,..., n constituie un sistem complet de evenimente sau o desfacere a evenimentului sigur. Atunci oricare ar fi A S, A = A Ω = (A H i ) şi deci rezultă p(a) = p(h i )p(a H i ), relaţie numită formula probabilităţii totale. Cum oricare ar fi k = 1, 2,..., n, p(h h A) = p(a)p(h k A) = p(h k )p(a H k ) avem p(h k A) = p(h k)p(a H k ) n. p(h i )p(a H i ) 7
Aceasta este formula lui Bayes. De obicei evenimentele H k se constituie în ipoteze în care are loc evenimentul A sau cauze sub a căror acţiune are loc evenimentul A; de aceea formula se mai numeşte şi formula ipotezelor sau formula cauzelor. Probabilităţile p(h k ) sunt probabilităţi a priori, în timp ce probabilităţile p(h k A) sunt probabilităţi a posteriori. 3.2 VARIABILE ALEATOARE 3.2.1 DEFINIŢIE, PROPRIETĂŢI În viaţa de toate zilele întâlnim frecvent mărimi care iau valori ce se schimbă sub influienţa unor factori întâmplători. Aşa sunt de exemplu numărul zilelor dintr-un an în care cade ploaia într-o anumită regiune, numărul produselor defecte dintr-un lot examinat, timpul de funcţionare fără defecţiuni al unui dispozitiv etc. Mărimile care iau valori întâmplătoare sunt legate de anumite experienţe aleatoare, iar valorile pe care le iau sunt funcţii de rezultatul experienţei. O astfel de mărime o vom numi variabilă aleatoare. Există variabile aleatoare a căror mulţime de valori este finită (variabile aleatoare simple), sau cel mult numărabila (variabile aleatoare de tip discret), precum şi variabile aleatoare care iau o mulţime nenumărabilă de valori reale, numite variabile aleatoare de tip continuu. La acestea din urmă ne interesează in general, probabilitatea ca ea să ia valori într-un anumit interval şi nu probabilitatea ca ea să ia o valoare bine determinată (de cele mai multe ori această probabilitate este nulă). Adică o variabilă aleatoare poate poate fi privită ca o corespondenţă între mulţimea rezultatelor posibile ale unei experienţe aleatoare şi mulţimea numerelor reale, pentru caracterizarea căreia trebuie 8
cunoscute valorile sale posibile împreună cu probabilităţile de a lua aceste valori. Acest mod de a asocia fiecărei experienţe aleatoare o funcţie, permite definirea riguroasă a noţiunii de variabilă aleatoare cu ajutorul analizei matematice. Definiţia 3.4. Fie (Ω, S, p) un spaţiu de probabilitate. O funcţie ξ : Ω R se numeşte variabilă aleatoare sau variabilă eventuală dacă pentru orice x R mulţimea {ω S ξ(ω) < x} este din σ-algebra S şi p(ω S < ξ(ω) < ) = 1. În loc de {ω S ξ(ω) < x} se scrie simplu {ξ < x}. Prima condiţie din definiţie cere să se poată defini probabilitatea evenimentului {ξ < x}; a doua condiţie cere ca funcţia ξ să fie efectiv definită pe întreaga mulţime a evenimentelor elementare Ω. Dacă A este un eveniment, variabila aleatoare definită prin relaţia { 1, ω A, I A = 0, ω / A, se numeşte indicatorul evenimentului A. (În analiză această funcţie se numeşte funcţia caracteristică a lui A, în teoria probabilităţilor prin funcţie caracteristică se va înţelege altceva). Sunt evidente relaţiile I CA = 1 I A, I A B = I A.I B, I A B = I A + I B I A B. Variabilele aleatoare ξ 1, ξ 2,..., ξ n se numesc variabile aleatoare independente dacă oricare ar fi sistemul de numere reale x 1, x 2,...,x n avem p(ξ 1 < x 1, ξ 2 < x 2,..., ξ n < x n ) = p(ξ 1 < x 1 )p(ξ 2 < x 2 )...p(ξ n < x n ). 9
O funcţie vectorială ξ = (ξ 1, ξ 2,..., ξ n ) : Ω R n ale cărei componente ξ i (i = 1, 2,..., n) sunt variabile aleatoare se numeşte variabilă aleatoare n-dimensională sau vector aleator n-dimensional. Următoarele proprietăţi ale variabilelor aleatoare sunt frecvent folosite: (i) Dacă ξ este o variabilă aleatoare şi c o constantă, atunci ξ + c, cξ, ξ, ξ 2 1, pentru ξ 0 sunt de asemenea tot ξ variabile aleatoare. (ii) Dacă {ξ n } n N este un şir convergent de variabile aleatoare, atunci şi lim n ξ n este de asemenea variabilă aleatoare. (iii) Dacă ξ, η sunt variabile aleatoare atunci {ξ > η} S, {ξ η} S, {ξ = η} S,. (iv) Dacă ξ, η sunt variabile aleatoare atunci şi ξ + η, ξ η, ξη, ξ sunt deasemenea variabile aleatoare. η 3.2.2 FUNCŢIA DE REPARTIŢIE, DENSITATEA DE REPAR- TIŢIE În aplicaţiile practice nu lucrăm cu direct cu variabile aleatoare, ci cu legea ei de repartiţie, adică cu o funcţie care i se asociază şi care ne dă informaţii atât asupra variabilelor sale, cât şi a probabilităţilor cu care sunt luate aceste valori. În cazul variabilelor aleatoare continue sunt necesare a fi cunoscute de obicei probabilităţile evenimentelor pentru care valorile aparţin unor intervale, de exemplu sunt mai mici decât o valoare reală x. Toate acestea ne sugerează următoarea definiţie: 10
Definiţia 3.5. Funcţia F ξ(x) = p(ξ < x) se numeşte funcţia de repartiţie sau funcţia cumulativă a probabilităţii variabilei aleatoare ξ. Funcţia de repartiţie a unei variabile aleatoare are următoarele proprietăţi: (i) x y F ξ(x) F ξ(y) (este nedescrescătoare) (ii) p(x ξ < y) = F ξ(y) F ξ(x); (iii) F ξ( ) = F ξ( ) = lim F ξ(x) = 0, x F ξ(x) = 1. lim x (iv) p(ξ x) = 1 F ξ(x); (v) F ξ(x 0) = F ξ(x); (F ξ(x) este continuă la stânga). (vi) p(ξ x) = F ξ(x + 0); (vii) p(ξ = x) = F ξ(x + 0) F ξ(x). Funcţia de repartiţie F ξ(x) = p(ξ < x) = p fiind crescătoare pe (, ) cu valori în (0, 1) se poate vorbi de inversa sa Qξ(p) definită pe (0, 1) cu valori în (, ) astfel că Qξ(p) = x dacă F ξ(x) = p = p(ξ < x). Funcţia Qξ(p) se numeşte inversa funcţiei cumulative de probabilitate sau cuantila de ordin p. Definiţia 3.6. O variabilă aleatoare ξ se numeşte discretă dacă ea poate lua o mulţime cel mult numărabilă de valori. Dacă o variabilă aleatoare discretă ia un număr finit de valori ea se numeşte simplă. 11
Fie ξ o variabilă aleatoare discretă care poate lua valorile x 1, x 2,..., x n,... Fie A i = {ω Ω ξ(ω) = x i }, i = 1, 2,..., n,... Evident Ω = A 1 + A 2 +... + A n +..., adică evenimentele A i, i = 1, 2,... constituie un sistem complet de evenimente. Invers dacă se poate scrie Ω = A 1 + A 2 +... + A n +..., atunci putem defini o variabilă aleatoare discretă punând ω Ai ξ(ω) = x i. Definiţia 3.7. Prin legea de repartiţie a unei variabile aleatoare discrete ξ se înţelege mulţimea perechilor (x i, p i = p(ξ = x i )), expresia p i = p(ξ = x i ) fiind densitatea de repartiţie a variabilei. Conform definiţiei variabilei aleatoare p i = 1. i Legea de repartiţie a unei variabile aleatoare discrete poate fi dată fie printr-un tabel de forma: ( x1 x 2 x n ) p 1 p 2 p n fie printr-o reprezentare grafică de forma din figura de mai jos, fie printr-o reprezentare grafică în care segmentele cu săgeată de înlocuiesc prin dreptunghiuri (bare). Legea de repartiţie a indicatorului evenimentului A este ( 0 1 1 p(a) p(a) ). Funcţia de repartiţie a unei variabile aleatoare discrete este F ξ(x) = p(ξ < x) = x i <x p i, 12
iar în cazul unei variabile aleatoare simple putem scrie 0, x x 1 p 1, x 1 < x x 2 p F ξ(x) = 1 + p 2, x 2 < x x 3... p 1 + + p n 1, x n 1 < x x n 1, x n < x Ea este o funcţie scară pentru care se păstrează proprietăţile amintite mai înainte. O altă definitie a densităţii de repartiţie o putem da folosind funcţia de repartiţie: Definiţia 3.8. Fie F (x) funcţia de repartiţie a unei variabile aleatoare ξ. Dacă există o funcţie pozitivă ρ(x) integrabilă pe R, cu proprietatea că pentru orice x R este verificată egalitatea F (x) = x ρ(t)dt atunci ρ(x) se numeşte densitate de repartiţie sau densitate de probabilitate a variabilei aleatoare. Proprietăţi ale densităţii de repartiţie: (i) P (a ξ < b) = (ii) ρ(t)dt = 1. b a ρ(t)dt pentru orice interval [a, b) R; (iii) dacă funcţia de repartiţie F e derivabilă pa R, atunci F (x) = ρ(x), ( )x R 13
Reprezentând grafic densitatea de repartiţie se obţine curba de repartiţie care se numeşte curba normală şi care are forma unui clopot, numindu-se clopotul lui Gauss. Tote curbele normale au următoarele proprietăţi comune: (i) admit ca asimptotă axa abciselor; (ii) admit câte un punct de maxim; (iii) variabila aleatoare corespunzătoare este unidimensională; (vi) sunt simetrice faţă de o paralelă la axa Oy, deci toate cele trei caracteristici ale tendinţei centrale de grupare ale variabilei normale sunt egale; (v) admit două puncte de inflexiune. Funcţia de repartiţie reprezintă aria deliminată de curba de repartiţie, axa Ox a valorilor variabilei aleatoare şi dreapta paralelă cu axa densităţii de probablitate dusă prin punctul x. 3.2.3 OPERAŢII CU VARIABILE ALEATOARE SIMPLE (i) Dacă c este o constantă şi ξ este o variabilă aleatoare simplă, atunci cξ este funcţia care asociază fiecărui eveniment elementar valoarea cx i când ξ ia valoarea x i pentru acelasi eveniment elementar. Deoarece P (cξ = cx i ) = P (ξ = x i ) = f (x i ), repartiţia variabilei aleatoare cξ este (cx i, f (x i )), i = 1, n. (ii) Fie ξ şi η două variabile aleatoare simple cu repartiţiile (x i, f (x i )), i = 1, n şi respectiv (y j, g (y j )), j = 1, n. Dacă pentru un eveniment elementar ξ ia valoarea x i iar η ia valoarea y i atunci, prin definiţie, ξ + η ia valoarea x i + y i. 14
Dacă notăm cu h (x i, y j ) probabilitatea cu care, simultan, ξ ia valoarea x i şi η ia valoarea y i avem: h (x i, y j ) = P ({X = x i } {Y = y j }) = P (X = x i, Y = y j ), i = 1, n,j = 1, m (iii) Fie ξ şi η două variabile aleatoare simple cu repartiţiile de la punctul precedent. Prin definitie, ξη este variabila aleatoare care ia valoarea dacă şi numai dacă ξ ia valoarea şi η ia valoarea x i y i. Repartiţia variabilei aleatoare ξη este (x i y j, h (x i y j )), i = 1, n,j = 1, m. 3.2.4 SCHEMA BILEI NEREVENITE Într-o urnă sunt n bile din care n 1 de culoare a 1, n 2 de culoare a 2,..., n k de culoare a k. Se extrag succesiv m bile, fără a se pune bila extrasă înapoi şi ne interesează evenimentul se obţin m i bile de culoare a i. Avem în total Cn m este C m 1 n 1 C m 2 n 2 fi cazuri posibile. Numărul cazurilor favorabile şi prin urmare probabilitatea căutată va C m k n k C m 1 n 1 C m 2 n 2 C m k n k Cn m = Cm 1 n 1 C m 2 n 2 C m k n k C m 1+m 2 + +m k n 1 +n 2 + +n k 3.2.5 SCHEMA BILEI REVENITE Într-o urnă sunt a bile albe şi b bile negre. Se fac n extrageri cu întoarcere, adică punând de fiecare dată bila la loc. Ne interesează evenimentul se obţin k bile albe. Experienţa este 15
echivalentă cu extragerea câte unei bile din n urne de aceiaşi compoziţie. Rezultatele se pot pune în corespondenţă cu funcţiile f : {1, 2,, n} {1, 2,, a+b} () fiecăriu număr i îi punem în corespondenţă bila obţinută la extragerea i) şi prin urmare avem (a + b) n cazuri posibile. Să calculăm acum numărul cazurilor favorabile evenimentelor se obţin k bile albe. Pentru început să presupunem că avem o situaţie de tipul de k ori am obţinut bile albe. În această situaţie pe cele n k locuri sunt n bile negre şi vom avea a k b n k posibilităţi de a obţine de k ori bile albe şi n k bile negre, căci fiecare extragere de k bile albe este posibilă cu fiecare extragere de n k bile negre. Dar o situaţie de tipul de k ori se obţin bile albe este posibil să apară de Cn k ori. Prin urmare în total vom avea Cna k k b n k cazuri posibile şi probabilitatea cerută este p k (n) = Ck na k b n k (a + b) m = Ck n 3.2.6 SCHEMA LUI BERNOULLI ( a a + b ) k ( b a + b ) n k. Să presupunem că se efectuează n experienţe aleatoare independente, fiecare din ele putând avea două rezultate: succes cu probabilitatea p şi insucces cu probabilitatea q = 1 p. O asemenea schemă - de fapt, o asemenea experienţă aleatoare - se numeşte schema lui Bernoulli. Să notăm cu b n numărul succeselor în cele n experienţe. b n este o variabilă aleatoare simplă. Să notăm cu ω i, i = 1, 2,..., n variabilele aleatoare 1, dacă în a i-a experienţă a fost succes Ω i = 0, dacă în a i-a experienţă a fost insucces 16
Fie vectorii ω = (ω 1, ω 2,..., ω n ). Aceştia alcătuiesc evenimentele elementare, deci mulţimea Ω. Evident b n = n ω i. Cele n experienţe fiind independente avem p(ω) = p(ω 1 )p(ω 2 )...p(ω n ). Cum p(ω i = 1) = p, p(ω i = 0) = q = 1 p avem ( n ) p(b n = k) = p ω i = k = p(ω 1 )p(ω 2 )...p(ω n ) Vom nota = C k np k q n k. ω 1 +ω 2 +...+ω n =k p n,k = p(b n = k) = C k np k q n k. Rezultă că variabila aleatoare simplă b n are legea de repartiţie dată de tabelul ( 0 1 2 k n q n Cnpq 1 n 1 Cnp 2 2 q n 2 Cnp k k q n k p n Definiţia 3.9. Variabila aleatoare b n discretă simplă cu valori naturale şi cu densitatea de repartiţie p n,k = p(b n = k) = Cnp k k q n k se numeşte varabilă aleatoare binomială. n Evident p n,k = 1 cum rezultă şi din relaţia 1 = (p + q) n k=0 = n Cnp k k q n k. k=0 Exemplul 3.2. Un aparat este compus din 5 elemente, fiecare putându-se defecta într-un timp dat cu probabilitatea p = 0, 1. Aparatul funcţionează normal dacă nu se defectează mai mult de 2 elemente. Care este probabilitatea ca în timpul dat aparatul să funcţioneze normal? 17 ).
Soluţia este p(b 5 2) = p(b 5 = 0) + p(b 5 = 1) + p(b 5 = 2) = C 5 0 0, 1 0 0, 9 5 + C 5 1 0, 1 1 0, 9 4 + C 5 2 0, 1 2 0, 9 3 = 0, 9914. Numărul cel mai probabil de realizări ale succesului în cele n experienţe din schema lui Bernoulli este apropiat de np. Fie ε > 0 un număr oarecare. Să încercăm să evaluăm probabilitatea b nn p > ε, adică probabilitatea ca modulul diferenţei între frecvenţa apariţiei succesului în cele n experienţe şi probabilitatea succesului într-o experienţă să fie mai mare ca ε. Teorema 3.1. (Legea numerelor mari sub forma lui Bernoulli). Ori care ar fi ε > 0, probabilitatea ca modulul diferenţei dintre frecvenţa de realizare a succesului în n experienţe din schema lui Bernoulli şi probabilitatea de realizare a succesului într-o experienţă să fie mai mică decât e tinde către 1 atunci când n tinde către infinit. Exemplul 3.3. Într-o localitate s-au născut într-un an 400 de copii. Probabilitatea naşterii unui băiat este egală cu probabilitatea naşterii unei fete. Să se evalueze probabilitatea ca numărul băieţilor născuţi în acel an să difere de 200 cu cel mult 20. Avem ( b 400 p( b 400 200 < 20) = p 400 1 2 < 20 ) 400 1 1 2 1 2 400 ( ) 1 2 = 1 1 4 = 3 4. 20 18
Definiţia 3.10. O variabilă aleatoare discretă ξ cu valori naturale cu densitatea de repartiţie pξ(ξ = k) = e aak, k = 0, 1, 2,... k! se numeşte variabilă aleatoare repartizată după legea lui Poisson a evenimentelor rare. 3.3 VALORI MEDII ALE VARIABILELOR ALEA- TOARE DISCRETE 3.3.1 LEGEA NUMERELOR MARI SUB FORMA LUI MARKOV Definiţia 3.11. Dacă ξ este o variabilă aleatoare, vom numi observaţie independentă a lui ξ orice variabilă aleatoare independentă cu aceea şi lege de repartiţie ca şi Ω. Introducem o asemenea definiţie pentru că orice observaţie rezultă din observarea variabilei Ω, contând mai mult realizarile acesteia. ( ) 1 0 Fie variabila aleatoare ξ cu repartiţia asociată unei p q experienţe. Repetând experienţa de n ori obţinem ( variabilele ) 1 0 aleatoare ξ i, i = 1, 2,..., n cu aceeaşi repartiţie. Acestea sunt observaţii independente ale variabilei Ω. Conform p q legii numerelor mari sub forma lui Bernoulli media aritmetică a rezultatelor observaţiilor independente ale lui ξ sunt oricât de apropiate de p pentru n mare cu o probabilitate oricât de apropiată de 1. De aceea este natural să numim probabilitatea p drept speranţă matematică ( sau) valoare medie a variabilei aleatoare ξ cu repartiţia. 1 0 p q 19
Fie acum o variabilă aleatoare simplă ξ cu legea de repartiţie ( ) x1 x 2 x m p 1 p 2 p m şi fie ξ 1, ξ 2,..., ξ n observaţii independente ale lui ξ. Dacă s n = ξ 1 + ξ 2 +... + ξ n atunci avem s n = N 1 x 1 + N 2 x 2 +... + N n x n unde N j este numărul observaţiilor al căror rezultat a fost x j, j = 1, 2,..., m. Fie ξ j i indicatorul evenimentului {rezultatul observaţiei i este x j }. ξ ( j i reprezintă ) observaţii ale variabilei 1 0 aleatoare ξ j cu repartiţia. Evident avem ξ j 1 p j 1 p + j ξ j 2 +...+ξj i = N j. Atunci din legea numerelor mari a lui Bernoulli avem că p ( ξ 1 + ξ 2 +... + ξ n n ) m x j p j ε j=1 j=1 n 0 sau trecând la evenimentul contrar ( ) ξ 1 + ξ 2 +... + ξ n m n p x j p j < ε 1 n Aceste relaţii constituie legea numerelor mari sub forma lui Markov. 3.3.2 VALOAREA MEDIE, PROPRIETĂŢI Din legea numerelor mari sub forma lui Markov rezultă că este natural ca suma m x j p j să se numească valoarea medie sau j=1 speranţa matematică a variabilei aleatoare ξ (expectation în engleză, esperance în franceză). Mai mult introducem următoarea 20
Definiţia 3.12. Dacă ξ este o variabilă aleatoare discretă cu densitatea de repartiţie ( ) x1 x 2 x m, p 1 p 2 p m dacă seria x i p i este absolut convergentă atunci suma acestei serii se numeşte valoarea medie a variabilei aleatoare şi se va nota prin M(ξ). Variabila aleatoare ξ M(ξ) se numeşte abaterea variabilei aleatoare ξ. Exemplul 3.4. Dacă A este un eveniment, atunci valoarea medie a indicatorului lui A este M(I A ) = p(a). Exemplul 3.5. Fie b n variabila aleatoare binomială. Cum p(b n = k) = C k np k q n k avem M(b n ) = n kcnp k k q n k = k=0 n k=1 C k 1 n 1 npk q n k = np(p+q) n 1 = np. Exemplul 3.6. Fie ξ o variabilă aleatoare repartizată după legea evenimentelor rare cu parametrul a, adică p(ξ = k) = e aa k. Valoarea medie a acestei variabile este k! M(ξ) = e a k=0 a k k! = ae a e a = a. Valorile medii asociate variabilelor aleatoare discrete au o serie de proprietăţi. Teorema 3.2. Fie ξ o variabilă aleatoare discretă cu repartiţia p(ξ = x i ) = p i şi f(x) o funcţie definită pe mulţimea valorilor 21
variabilei ξ astfel încât f(x i ) p i <. Atunci M(f(ξ)) există şi M(f(ξ)) = f(x i )p i. Consecinţă: M(αξ + β) = αm(ξ) + β. Teorema 3.3. Dacă ξ şi η, sunt două variabile aleatoare discrete atunci M(ξ + η) = Mξ) + M(η). Definiţia 3.13. Variabilele aleatoare discrete ξ şi η, se numesc independente dacă evenimentele ξ = x i, η = y j sunt independente oricare ar fi i, j. Analog se defineşte independenţa în totalitate a mai multor variabile aleatoare. Teorema 3.4. Dacă ξ şi η, sunt variabile aleatoare discrete independente şi cu valori medii finite atunci M(ξη) = M(ξ)M(η). 3.3.3 MOMENTE, INEGALITĂŢILE LUI MARKOV ŞI CEBÎŞEV Definiţia 3.14. Dacă ξ este o variabilă aleatoare numărul M(ξ k ) se numeşte momentul de ordin k al lui ξ, iar numărul M( ξ k ) se numeşte momentul absolut de ordin k al lui ξ. Numărul µ k (ξ) = M ( (ξ M(ξ)) k) se numeşte momentul centrat de ordin k al lui ξ, iar numărul M ( ξ M(ξ) k) se numeşte momentul absolut centrat de ordin k. În particular pentru k = 2, µ 2 (ξ) = M ( (ξ M(ξ)) 2) se numeşte dispersia sau variaţia lui ξ şi se notează şi cu D 2 (ξ) sau var(ξ). Termenul dispersie provine din cuvântul latin dispersio care înseamnă împrăştiere, răspândire. D(ξ) = D 2 (ξ) se numeşte abaterea medie pătratică a lui ξ. 22
Notăm relaţiile D 2 (ξ) = M(ξ 2 ) [M(ξ)] 2 D 2 (αξ + β) = α 2 D 2 (ξ). Dacă ξ 1, ξ 2,..., ξ n sunt variabile aleatoare independente atunci D 2 (ξ 1 + ξ 2 +... + ξ n ) = D 2 (ξ 1 ) + D 2 (ξ 2 ) +... + D 2 (ξ n ), aceasta rezultând din definiţia dispersiei şi multiplicativitatea valorilor medii ale variabilelor aleatoare independente. Dacă ξ şi η sunt două variabile aleatoare pentru care există momentele de ordinul doi M(ξ 2 ), M(η 2 ) atunci au loc inegalitatea lui Schwarz inegalitatea lui Markov inegalitatea lui Cebîşev M(ξη) = M(ξ 2 )M(η 2 ); p ( ξ k ε ) = M ( ξ k) ε k ; p ( ξ M(ξ) ε) = D2 (ξ) ε 2. Definiţia 3.15. Dacă ξ, η sunt două variabile aleatoare numărul cov(ξ, η) = E((ξ E(ξ))(η E(η))) se numeşte covariaţia celor două variabile aleatoare; numărul cor(ξ, η) = cov(ξ, η) D(ξ)D(η) se numeşte corelaţia celor două variabile aleatoare. 23
Totdeauna cor(ξ, η) = 1. Dacă cor(ξ, η) = 0 variabilele ξ, η se numesc necorelate. Dacă variabilele sunt independente ele sunt necorelate; invers nu este adevărat totdeauna. Exemplul 3.7. Un lot de 400 de piese, conţine 8% piese cu defecţiuni. Să se identifice legea de repartiţie a numărului ξ de piese cu defecţiuni dintr-un eşantion de 10 piese din lot. Lotul de c = 400 de piese conţine a piese defecte şi b piese bune astfel încât c = a + b, a c = 0, 08, b = 0, 92, deci a = 32, c b = 368. Un eşantion de n = 10 piese conţine k piese defecte şi n k = 10 k piese bune. Cu cele b piese bune se pot obţine C n k b = C368 10 k eşantioane de n k piese bune, cu cele a = 32 piese defecte se pot obţine Ca k = C32 k eşantioane de k piese defecte; deci există C k ac n k b = C k 32C 10 k 368 eşantioane de n = 10 piese din care k sunt defecte. Rezultă că probabilitatea ca din eşantionul de n = 10 piese k să fie defecte este p k = Ck ac n k b Ca+b n = Ck 32C368 10 k C400 10. 10 32 Valoarea medie a variabilei ξ este M(ξ) = = 4 400 5, iar dispersia este D 2 10 32 368 390 (ξ) =. 400 2 399 Exemplul 3.8. Într-un lac sunt N peşti. Se pescuiesc a peşti, se marchează aceşti peşti şi se aruncă în lac. În lac sunt acum b = N a peşti nemarcaţi. Se pescuiesc din nou n peşti. Din schema bilei nerevenite, probabilitatea ca printre cei n peşti să se găsească k peşti marcaţi este p N,k = Ck acn a n k. C n N 24
Dacă după pescuirea celor n peşti s-au pescuit într-adevăr k peşti marcaţi, avem posibilitatea să apreciemnumărul numărul total de peşti din lac N pentru că pescuirea celor k peşti marcaţi este cea mai verosimilă atunci când probabilitatea p N,k este maximă în raport cu variabila N, adică p N 1,k p N,k p N+1,k Scriind aceasta se găseşte că N este valoarea întreagă cea mai apropiată de na k. 3.4 CARACTERISTICI NUMERICE ALE VARIABI- LELOR ALEATOARE CONTINUE Fie ξ o variabilă aleatoare continuă a cărei funcţie de repartiţie este F (x), iar densitatea de repartiţie ρ(x). Presupunem că variabila aleatoare ξ ia valori într-un interval [a, b] R. Definiţia 3.16. Dacă xdf (x) este absolut convergentă, atunci definim valoarea medie a variabilei aleatoare ξ prin M(ξ) = xdf (x). În cazul în care ξ are densitatea de repartiţie ρ continuă sau continuă pe porţiuni, F este derivabilă în orice x în care ρ este continuă integrala de mai sus se reduce la M(ξ) = xρ(x)dx 25
şi F (x) = ρ(x). Variabila aleatoare ξ M(ξ) se numeşte abaterea variabilei aleatoare continue ξ. Pornind de la această relaţie se pot defini prin analogie cu cazul discret: Definiţia 3.17. Momentul de ordin k: M(ξ k ) = x k ρ(x)dx; Momentul absolut de ordin k: M( ξ k ) = Momentul centrat de ordin k: M ( [ξ M(ξ)] k) = Dispersia: D 2 (ξ) = [x M(ξ)] k ρ(x)dx [x M(ξ)] 3 ρ(x)dx Abaterea medie pătratică: D(ξ) = D 2 (ξ). x k ρ(x)dx Proprietăţile valorilor medii şi ale dispersiei unei variabile aleatoare discrete se menţin şi în cazul variabilei aleatoare continue, dispersia dând o indicaţie asupra gradului de concentrare a valorilor unei variabile aleatoare în jurul valorii medii. 26