Appunti Matematici 28

Page 1

Patrizio Gravano

APPUNTI MATEMATICI

LA TEORIA DELLA PROBABILTÀ E LE SUE APPLICAZIONI ALLA FISICA numero 28 - aprile 2017



Introduzione

Questo elaborato elementare intende sintetizzare gli elementi di base del calcolo delle probabilità visto non come teoria astratta e formale ma piuttosto come ambito matematico particolarmente rilevante nel contesto delle sue applicazioni, in particolari di quelle fisiche. Nella elaborazione del saggio mi sono “aiutato” con la rilettura di alcuni testi già noti e ho attinto a testi ulteriori. Ho preferito curare la sintesi di contenuti peraltro vastissimi e tutti di sicuro interesse, non solo applicativo.

Non ho mai avuto la pretesa di condurre una ricostruzione storico critica della vicenda matematica della probabilità, avviata per ragioni pratiche e non nobili quali quella dei giochi d’azzardo ma che ha avuto ricadute ampissime nelle scienze applicate, e, soprattutto nel campo della fisica, a partire dalla termodinamica, dalla meccanica analitica fino ad arrivare al moderno probabilismo quantistico.

Nel rivedere la materia ho attinto anche al testo di Guido Castelnuovo, Calcolo delle probabilità, che nella prima versione risale al 1918, che mi e’ stato utile per “ripassare” parte della materia ma che mi ha offerto lo spunto per introdurre in questo elaborato aspetti di sicuro interesse, come già si comprenderà dalle lettura delle pagine seguenti.


In alcuni punti mi sono discostato a rischio di critiche o peggio‌ Nei prossimi mesi seguirà un numero ulteriore dedicato agli sviluppi e a particolari approfondimenti, quali quelli relativi alla teoria dei campioni, alla stima e ai test di ipotesi e di significatività .

Patrizio Gravano patrizio.gravano@libero.it


1. Cenni storici sulla probabilita’ Nella sua prefazione al libro dedicato al calcolo delle probabilita’, edito nel 1918, Giudo Castelnuovo volendo introdurre alla attualita’ e all’importanza sempre crescente, gia’ allora, della teoria del calcolo delle probabilita’, compie anche un significativo excursus storico sulle origini (“umili”) di questo settore delle matematiche. Anche una superficiale e veloce lettura della prefazione consente di comprendere i momenti essenziali di uno sviluppo impetuoso e rigoroso, al contempo. Basta un elenco dei matematici ivi citati per comprendere quali e quanto importanti siano le applicazioni della probabilita’ alle scienze fisiche. Newton, Boltzmann, fisici di due regolarita’ di tipo diverso. Solo una “analisi piu’ minuziosa (miscroscopica)” per usare le parole di Castelnuovo, basata sul calcolo delle probabilita’ consente di dare conto e di prevedere il comportamento di sistemi termodinamici complessi, quali quelli costituiti da un numero particolarmente grande di particelle, dell’ordine di grandezza di 1023 particelle.


Ricordava Guido Castelnuovo che “molto piu’ antichi sono di applicare le probabilita’ alla statistica demografica e biologica”. E non potevano mancare, nella citata prefazione, i nomi di matematici del calibro di P. Laplace e di J. Bernoulli. Questi, fu attento studioso interessato alla ricerche sui sorteggi da un’urna di composizione costante e intento a studiare l’applicabilita’ di tali schemi a fenomeni statistici differenti, quali quello della costanza di certi valori sperimentali. Gli sviluppi del calcolo delle probabilita’ sono stati impetuosi ed hanno consentito di pervenire alla definizione di fenomeni rispetto ai quali l’analogia con le estrazioni da un’urna a composizione costante era solo una effimera apparenza. Rispetto a questo punto – a giudizio di Castelnuovo - ne’ Bernoulli ne’ lo stesso Laplace furono particolarmente interessati… Ma certo, scrive ancora Castelnuovo “Gli schemi di sorteggio costituiscono (…) le suppellettili superstiti nel vecchio armamentario dei giuochi d’azzardo, che tanta parte ebbero nelle prime ricerche sulle probabilita’.”


Ed eccoci, quindi, alle origini “umili” del calcolo delle probabilita’. Il loro “ruolo” nella vicenda e’ ben ricordato dal grande matematico. “I giuochi, con le vincite o perdite aleatorie, hanno fornito i primi esempi di quantita’ variabili, i cui valori dipendono dal caso. (…..) Ma l’importanza di questo concetto non venne in piena luce finche’ le scienze sperimentali non rilevarono che variabili e funzioni entrano nell’espressione di ogni legge fisica. (…). (...) la statistica (...) forni’ la vera sorgente delle variabili dipendenti dal caso (…).” Concludeva il Castelnuovo la prima parte della sua prefazione ricordando che “Sotto l’aspetto moderno il calcolo delle probabilita’ appare dunque come la teoria delle variabili dipendenti dal caso” e rispetto alla applicazioni come una introduzione teorica allo studio dei fenomeni collettivi.

Castelnuovo ricorda che “il calcolo delle probabilita’ e’ sorto per dare delle previsioni intorno ad eventi fortuiti” e certamente la sua domanda “Con qual diritto il calcolo delle probabilita’, che si occupa di eventi aleatori, puo’, nelle


matematiche applicate, formulare affermazioni precise, quasi dogmatiche, quali si incontrano nei rami meglio fondati della Fisica matematica ?” Pertanto uno dei punti rilevanti di questo elaborato sara’ certamente il teorema di J. Bernoulli.

2. Primi elementi sul concetto di probabilita’ Gli assiomi di probabilita’ sono un fondamentale contributo del matematico russo Kolmogorov che ha provveduto alla assiomatizzazione della probabilità.

Possiamo affermare che la probabilità è la quantificazione della possibilità.

Si puo’ sicuramente partire dal lancio di un dado non truccato. Sia dato un dado numerato coi numeri da 1 a 6. L’uscita del numero 1, quindi l’evento “esce il numero 1” è un evento possibile. L’uscita del numero 7, quindi l’evento “esce il numero 7” è un evento impossibile.

E’ facilmente definibile l’evento certo. Se ci si limita a un solo lancio l’evento “esce un numero compreso tra 1 e 6” è un evento certo.

Recte, e’ l’evento certo !


Infatti lanciando un dado esce comunque una faccia con un numero da 1 a 6.

Questo ragionamento, estensibile, mutatis mutandis, ad altre esperienze, definisce tre autonome tipologie di eventi:

1)

evento impossibile;

2)

evento possibile;

3)

evento certo.

Ad ognuno di questi casi, mutuamente esclusivi, è associato un numero che definisce la probabilità del verificarsi dell’evento stesso.

Evento impossibile

probabilità nulla del verificarsi dell’evento,

formalmente P(e) = 0;

Evento certo ⟷ probabilità unitaria del suo verificarsi (l’evento si verificherà sicuramente con predizione a priori), formalmente P(e) = 1; Evento possibile ⟷ (0 < P(e) < 1).

Ci si potrebbe chiedere quanto vale, in questo caso, P(e) ?


La risposta è: dipende !

Bisogna fare un passo indietro.

Bisogna introdurre un concetto importante, quello di equiprobabilità.

Un esempio chiarisce tutto. Nel lancio di un dado non vi è ragione alcuna che sia più facile che esca una faccia piuttosto che un’altra.

Nel caso del dado la probabilità che esca la faccia 2, per esempio, è 1/6. Ma 1/6 è la probabilità che esca qualunque altra faccia, la 1, la 3, la 4, la 5 o la 6. Quindi nel caso di un evento possibile la probabilita’ P(e) tiene conto della equiprobabilità.

Il concreto valore di P(e) dipende dal particolare contesto nel quale si opera. Se si pensa all’estrazione di una carta da un mazzo, bisogna tenere conto del numero delle carte che lo compongono.


Bisogna sempre avere riguardo alla definizione dell’evento che si considera. Un evento potrebbe essere definito come “uscita della faccia 6 in due successivi 11

1

lanci� , qui si ha, come ovvio P(e) = 6 6 = 36 In questi casi si ammette che la successiva uscita della faccia 6 non sia in alcun modo influenzata dall’evento elementare precedente.

I due eventi elementari “prima uscita� e “seconda uscita� sono indipendenti.

Molte volte le cose si complicano perchĂŠ eventi costituiti da eventi elementari che si succedono nel tempo definiscono contesti non operativi. Se si ha un mazzo costituito da k carte distinte la probabilitĂ che si verifichi l’evento “escono due carte eguali in due successive estrazioniâ€? è un evento 11

1

possibile con probabilitĂ P(e) = đ?‘˜ đ?‘˜ = đ?‘˜ 2 < 1 se dopo il primo step la carta viene 1

reinserita nel mazzo, oppure P(e) = đ?‘˜ * 0 = 0 ⤌ evento impossibile, se non c’è il reinserimento della carta nel mazzo, quando essa è uscita al primo step. Non sempre, nel contesto di eventi “molecolariâ€?, costituiti da eventi basici, si può parlare di indipendenza, anzi in alcuni casi si realizzano condizioni di dipendenza, quanto al valore di P(e).


Vorrei esemplificare con il giuoco del lotto. Se l’evento è “primo estratto pari, secondo estratto pariâ€?, la probabilitĂ non differisce in ragione del verificarsi del primo evento elementare “primo estratto pariâ€?, quando il termine estratto viene ricollocato nell’urna. Pertanto se la probabilitĂ che “il primo estratto è pariâ€? vale ½ allora la probabilitĂ che “il secondo estratto sia pariâ€? è parimenti ½.

Le cose sembrano complicarsi quando – come avviene nel gioco del lotto – all’estrazione di un numero non segue il reimbussolamento. Infatti se il primo estratto è pari allora la probabilitĂ che sia “secondo estratto pariâ€? risulta essere

đ?‘›âˆ’1 2đ?‘›âˆ’1

, mentre se il primo estratto è dispari allora la đ?‘›

probabilitĂ che sia “secondo estratto pariâ€? risulta essere 2đ?‘›âˆ’1. 2n è il numero di numeri estraibili. Nel gioco del lotto 2n = 90.

Le righe seguenti non hanno pretesa di essere condivise.

Ho deciso per casi del genere riferirmi al concetto di peggiore delle ipotesi.


Nel caso del non reimbussolamento, quindi, la probabilitĂ associata all’evento đ?‘›âˆ’1

đ?‘›âˆ’1

“primo estratto pari, secondo estratto pariâ€? è P(e) = (½)2đ?‘›âˆ’1 = 4đ?‘›âˆ’2 < Âź Tali riflessioni dovrebbero potersi estendere al caso di eventi ancor piĂš complessi del tipo “primo estratto pari, secondo estratto pari, terzo estratto pariâ€?. 1

1

In questo caso deve qualitativamente essere P(e) < 23 = 8.

Nel caso di k eventi successivi si avrebbe P(e) = ½

đ?‘›âˆ’1 đ?‘›âˆ’2 2đ?‘›âˆ’1 2đ?‘›âˆ’2

đ?‘›âˆ’đ?‘˜+1

‌ ‌ ‌ . 2đ?‘›âˆ’đ?‘˜+1 <

1 2đ?‘˜

Per il caso k = 3 ovvero in relazione all’evento “primo estratto pari, secondo estratto pari, terzo estratto pariâ€? la corrispondente P(e) = ½( đ?‘›âˆ’1

đ?‘›âˆ’2

đ?‘›âˆ’1 đ?‘›âˆ’2

) =

2đ?‘›âˆ’1 2đ?‘›âˆ’2

đ?‘›âˆ’2

½(2đ?‘›âˆ’1 2(đ?‘›âˆ’1)) = (Âź)2đ?‘›âˆ’1

Nelle mie assunzioni devo ipotizzare k << n. Vorrei concludere, ritornando a logiche piu’ standard, ricordando l’ulteriore assioma di Kolmogorov.


Esso è a fondamento di quesiti del genere: quale è la probabilitĂ che da una urna contenente i numeri da 1 a k esca o il numero 2 o il numero 3 in una unica estrazione. E’ ben evidente che i due possibili esiti “è uscito il numero 2â€? e “è uscito il numero

3�

sono

mutuamente

esclusivi,

non

essendo

ammissibili

contemporaneamente.

L’evento “esce il numero 2 o il numero 3â€? è scomponibile in due eventi elementari “esce il numero 2â€? e “esce il numero 3â€?.

Detti eventi sono incompatibili ed equiprobabili.

La probabilità che esca il numero 2 è 1/k, parimenti la probabilità che esca il numero 3 è 1/k.

Si ammette che la probabilitĂ che si verifichi l’evento “esce il numero 2 oppure 1

il numero 3â€? è đ?‘˜ +

1 đ?‘˜

2

=đ?‘˜

Questo prospetto sintetizza gli assiomi di probabilitĂ di Kolmogorov.


Tale tabella riferisce anche della esistenza di eventi detti incompatibili.

E’ impossibile l’evento “esce il numero 2 e il numero 3 in una estrazione”.

P(Ω) = 1 definisce l’evento certo, ovvero l’evento che definisce l’evento Ω inteso come la somma logica dei (tutti) possibili eventi elementari. Con riferimento al lancio di un dado l’evento Ω è Ω = “esce la faccia 1, oppure la faccia 2, oppure la faccia 3, oppure la faccia 4, oppure la faccia 5, oppure la faccia 6”.


3. Le σ-algebre La prima parte di questo paragrafo e’ una mia pregressa sintesi di alcune voci di Wikipedia riportate tra le fonti. Dato un evento E la scrittura P(E), probabilità che si verifichi l’evento E, è detta anche funzione di probabilità o distribuzione di probabilità. Viene definito un insieme S, detto spazio campione, i cui elementi sono tutti i possibili esisti di A (quindi sottoinsiemi propri di S). La terna (S, A, P) è detta spazio di probabilità. A costituisce una classe additiva. In pratica è un insieme i cui elementi sono tutti i possibili eventi. Ho rielaborato in sintesi la voce “Probabilità” di Wikipedia, osservando, ad evitare confusione che se gli eventi sono definiti dal formalismo Ai allora l’unione di un numero discreto di essi è pure elemento di A. Quando sono dati n eventi Ai allora l’evento ⋃ni=1 Ai ∈ A potendo anche dirsi che ⋃ni=1 Ai = S, ovvero è lo spazio campione.


Rispetto alla formulazione intuitiva degli assiomi si può dire che ad ogni elemento Ai ∈ A corrisponde un numero reale non negativo P(A) detto probabilità di A. Va rimarcato quindi il concetto di σ-algebra.

Una trattazione interessante, come detto, si trova in Wikipedia alla voce “σalgebre”. Ho deciso di sintetizzare Sia dato un insieme S. Si definisce σ-algebra su S, una famiglia F di sottoinsiemi di S tali che: 1) se A ∈ F allora Ac ∈ F, ove Ac è l’insieme complementare di A, rispetto ad S; 2) Se gli Ai di una famiglia numerabile di insiemi ⦃Ai ⦄ sono in F allora ⋃∞ i=1 Ai ∈ F. Ciò premesso vorrei osservare che F è un insieme avente per elementi gli insiemi ⦃Ai ⦄ e che ⋃∞ i=1 Ai ∈ F.


Nelle applicazioni si ha solitamente un numero finito di eventi possibili. Pertanto quando si opera concretamente il simbolo ∞ può essere sostituito da n finito. Uno dei paragrafi finali di questo breve elaborato elementare conterra’ una riproposizione finale e formale dei concetti qui introdotti.

4. Esperimenti, modelli e spazi campionari In termini formali dicesi esperimento aleatorio ogni osservazione relativa a qualsiasi fenomeno il cui esito non sia determinabile a priori. Solitamente si utilizza un modello probabilistico, ovvero una descrizione matematica di un modello aleatorio. Il concetto di spazio campionario e’ stato gia’ intuitivamente introdotto con riferimento al lancio del dado. In termini formali esso e’ definibile come l’insieme i cui elementi sono tutti i possibili esiti dell’esperimento. Come visto esso e’ solitamente indicato con la lettera Ω.


Esso viene anche chiamato spazio campionario naturale.

Nel caso del lancio del dado, cui si e’ fatto ampio riferimento, esso e’: Ί = {1, 2, 3, 4, 5, 6} Gli eventi sono affermazioni sui possibili esiti. In fisica uno spazio campionario puo’ essere anche un intervallo di tempo, come nel caso del decadimento di una particella elementare.

In casi del genere

Ί = ⌋0 , +∞) ed hanno senso quesiti del tipo: quale e’ la

probabilita’ che un atomo abbia un decadimento β in un intervallo I ⊂ ⌋0 , +∞). Va ricordato il concetto di evento, in quanto il concetto di evento e’ suscettibile di riflessioni ulteriori. Gia’ si e’ detto dell’evento certo che si riconduce a đ?›ş ovvero allo spazio campionario. Altrettanto evidente e’ il concetto di evento impossibile, riconducibile alla probabilita’ nulla e in termini insiemistici all’insieme Ă˜.


Fuori da queste ipotesi estreme un evento possibile e’ associabile ad un insieme �′ ⊂ �.

In definitiva ogni đ?›şâ€˛ ⊂ đ?›ş definisce un evento possibile. Evidentemente đ?›şâ€˛ â‰ Ă˜. Quando đ?›şâ€˛ e’ un singoletto, ovvero quando esso e’ costituito da un solo elemento, allora esso e’ riconducibile ad un esito elementare, o “atomicoâ€?. Ma in generale un detto evento puo’ essere definito in termini nominali diversi. L’evento “esce il numero 6â€? ad esempio, come ho constatato anche dalla manualistica ⌋Caravenna, Dai PraâŚŒ ha un equivalente del tipo “esce un numero pari multiplo di 3â€?. Quello che si puo’ dire e’ che un evento đ??¸đ?‘– ⊆ Ί per il quale la probabilita’ p(đ??¸đ?‘– ) ∈ ⌋0, 1âŚŒ.

Occorre ricordare che la probabilita’ deve intendersi come il grado di fiducia circa l’avveramento di un evento che e’ riconducibile alla frequenza e quindi alla probabilita’ secondo Laplace.


5. Ripetibilita’ dell’evento aleatorio Il senso della “ripetibilita’ dell’esperimento aleatorioâ€? presuppone che detta condizione sussista per N ≍ 1 volte in condizioni analoghe e indipendenti. In questi schemi logici la probabilita’ e’ correlata al numero di volte in cui đ??¸đ?‘– si realizza. Va quindi distinta la probabilita’ a priori logicamente legata alla equiprobabilita’ dalla probabilita’ a posteriori, misurata sperimentalmente su un certo numero di esperimentazioni reputate avvenute in condizioni analoghe e indipendenti. La indipendenza va intesa che l’esisto di un esperimento (lancio di un dado) non dipenda dai lanci precedenti. La probabilita’ a priori, intimamente legata alla equiprobabilita’, che esca il 1

numero 1 nel lancio di un dado e’ 6 . Nella probabilita’ a posteriori, quindi nella logica frequentista, vanno considerati il numero N delle prove e la frequenza, ricavata sperimentalmente,


ovvero il numero delle volte che e’ uscito in N successivi lanci del dado il numero 1. In termini formali, in questo contesto se đ??¸đ?‘– ={esce il numero 1} si puo’ scrivere che p(đ??¸đ?‘– ) =

đ?‘“(đ??¸đ?‘– ) đ?‘

ove đ?‘“(đ??¸đ?‘– ) indica il numero delle volte che in N prove

successive si ottiene l’uscita della faccia 1 del dado.

A rigore dovrebbe essere introdotto un limite ⌋Caravenna, Dei PraâŚŒ ovvero si dovrebbe scrivere:

p(đ??¸đ?‘– ) = lim

đ?‘“(đ??¸đ?‘– )

đ?‘ →+∞

đ?‘

Non e’ detto che detto limite esista. A contrariis si potrebbe anche obiettare che poiche’ gli esiti precedenti non sono influenti (nel senso che non incidono sull’esito corrente) allora, almeno astrattamente potrebbero aversi k successive estrazioni per le quali risulti lim

đ?‘ →+∞

đ?‘“(đ??¸đ?‘– ) đ?‘

= 0.


La condizione di equiprobabilita’ (correlata alla probabilita’ a priori) e’ coordinabile a posteriori se

đ?‘“(đ??¸đ?‘– ) đ?‘

1

→ đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş

ove đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş indica la cardinalita’ dell’insieme Ί. Ricordo che la cardinalita’ di un insieme e’ banalmente il numero degli elementi dell’insieme. Un limite severo della ripetibilita’ e’ che non tutti gli esperimenti possono essere ripetuti in condizioni analoghe e indipendenti, specie in fisica. Va rilevato ⌋CastelnuovoâŚŒ che “il concetto di casi ugualmente possibili e’ puramente convenzionaleâ€? e che “Un problema e’ determinato solo quando si siano gia’ delimitate la classe dei casi (ugualmente) possibili, e la classe (in essa contenuta) dei casi favorevoli, in modo che gli uni e gli altri si possano contare senza ambiguita’ â€?. In allora il Castelnuovo ipotizzava di considerare il concetto di casi egualmente probabili come primitivo, e quindi “non ulteriormente analizzabileâ€?, evidenziandosi che “la enumerazione corretta dei casi possibili e favorevoli deve dipendere esclusivamente dalle particolarita’ fisiche del problema concreto in esameâ€?.


Va comunque osservato che astrattamente anche in un caso banale quale il lancio ripetuto di una moneta non truccata poiche’ ogni lancio e’ ad esito indipendente dai precedenti potrebbe aversi in astratto anche una sequenza infinita di esiti eguali….. Anche nel gioco del lotto si possono formulare obiezioni simili. E’ il caso dei numeri ritardatari….. che mancano da molte estrazioni, a volte oltre le 200 estrazioni. Il dato sperimentale e’ che prima o poi un numero ritardatario esce, ma ragionando seccamente sul principio della indipedenza degli eventi si potrebbe avanzare l’ipotesi che un dato numero possa da qui all’eternita’ non uscire piu’. Questa e’ una ipotesi contro l’evenienza empirica che prima o poi il numero ritardatario esce. Poiche’ la storia delle estrazioni del lotto dice che prima o poi anche il peggiore dei ritardatari esce allora l’ipotesi a priori equiprobabile della non uscita futura viene ritenuta irragionevole…


Anche il teorema della probabilita’ degli eventi indipendenti potrebbe essere oggetto di una critica del genere: lanciano due volte una moneta la probabilita’ 1

che esca due volte testa e’ 4 .

Infatti, ammesso che la probabilita’ che esca testa al primo tentativo sia

1 2

(moneta non truccata) e stessa probabilita’ si ha al secondo lancio. 11

1

Che escano due teste conduce a 2 2 = 4 come vuole il calcolo delle probabilita’.

Si potrebbe obiettare che questa ammissione surrettiziamente rende dipendenti eventi indipendenti (infatti, il secondo lancio ha un esito che non dipende dal primo). Detta altrimenti ci si potrebbe chiedere: perche’ se due eventi sono indipendenti e, nel caso di specie, successivi nel tempo, la probabilita’ che essi si realizzino nel tempo deve dipendere da una formula che coordina due eventi indipendenti (per condizione assunta a priori) ? Anche a prescindere da quanto detto il risultato sara’ con riferimento al lancio 1

di due monete sempre 4.


I possibili esiti di due lanci ovvero i possibili esisti dei due lanci possono essere TT

TC

CT

CC

Ad esempio scrivendo TT si intende che l’esito sperimentale e’ stato testa e quindi nuovamente testa. Si osservi che la probabilita’ che escano due teste consecutive e’: đ?‘’đ?‘ đ?‘–đ?‘Ąđ?‘– đ?‘“đ?‘Žđ?‘Łđ?‘œđ?‘&#x;đ?‘’đ?‘Łđ?‘œđ?‘™đ?‘– đ?‘’đ?‘ đ?‘–đ?‘Ąđ?‘– đ?‘?đ?‘œđ?‘ đ?‘ đ?‘–đ?‘?đ?‘–đ?‘™đ?‘–

1

=4

Riflessioni analoghe si avranno anche nelle pagine successive.

6. Costruibilita’ degli eventi a partire dallo spazio campione naturale Dato lo spazio campione naturale đ?›ş e’ possibile costruire ogni evento possibile. Se ci si riferisce al solito lancio del dado ogni đ?›şâ€˛ ⊂ Ί definisce un evento. Ad esempio đ?›şâ€˛ ={4,5} definisce un evento che a parole puo’ essere variamente, ma equivalentemente, definito come “esce un numero maggiore di tre ma minore di 6â€? oppure “esce o il 4 o il 5â€?, o, ancora, “non esce 1,2,3,6â€? .


Sotto questo profilo la probabilita’ potrebbe essere intesa nel modo seguente:

p(�′) =

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘ đ?›şâ€˛ đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş

7. Nota matematica – Insiemi e relative proprieta’ Il concetto matematico di insieme e’ primitivo e definito per sinonimo intendendo per insieme una collezione, una raccolta di oggetti, detti elementi dell’insieme, risultando definito un criterio rigoroso e non controvertibile per il quale si possa dire in modo certo che un dato elemento e o meno appartenente al dato insieme. In effetti una modalita’ di rappresentazione degli insiemi e’ quella di definirli mediante una proprieta’ caratteristica. Gli insiemi

sono solitamente indicati con lettere maiuscole, mentre gli

elementi dell’insieme sono indicati con lettere minuscole. E’ dato un particolare criterio di eguaglianza degli insiemi per il quale due insiemi sono eguali quando contengono gli stessi elementi, a prescindere dall’ordine di elencazione degli stessi. In buona sostanza due insiemi sono eguali quando sono il medesimo insieme.


Se un elemento a appartiene ad un dato insieme A si scrive a ∈ A, mentre se b non appartiene all’insieme B si scrive formalmente che b ∉ B. Una prima ampia tipologia di insiemi numerabili e’ quella degli insiemi finiti, ovvero costituiti da un numero finito e intero di elementi. Il numero degli elementi di un insieme numerabile finito e’ detto cardinalita’ dell’insieme.

Per indicare la cardinalita’ di un insieme finito si utilizzano diversi formalismi e principalmente i due seguenti: cardA oppure |A| .

Esiste una vera e propria algebra degli insiemi rispetto alla quale e’ utile partire dalle operazioni sugli insiemi.

La prima di esse e’ la unione insiemistica per la quale la somma di due o piu’ insiemi, al limite anche un numero infinito di essi, e’ un insieme avente come


elementi tutti gli elementi dei dati insiemi, considerato una sola volta quando comuni ad almeno due insiemi.

Elementarmente, nel caso piu’ banale possibile, si dice che l’unione di due insiemi A e B e’ l’insieme C costituito da tutti gli elementi di A e da tutti gli elementi di B, presi una sola volta se comuni ad essi. Come detto, l’unione insiemistica e’ estensibile ad un numero arbitrariamente grande di insiemi. E’ possibile esemplificare, considerando gli insiemi A = {a, b, c, d} e B = {x, y, d}. L’unione di detti insiemi ovvero C = A ∪ B e’ l’insieme i cui elementi sono gli elementi dei due insiemi, ovvero si ha: C = A ∪ B= {a, b, c, d, x, y}. Va da subito osservato che la somma insiemistica e’ commutativa, ovvero si puo’ affermare che: A∪B =B∪A


Cio’ e’ una diretta conseguenza di come e’ definita l’unione e della irrilevanza dell’ordine di elencazione degli elementi dell’insieme.

In relazione alla cardinalita’ deve osservarsi che: |A ∪ B | ≥ max(|A| , |B|) Due insiemi che non hanno elementi in comune sono detti disgiunti.

I due insiemi A e B dell’esempio precedente non possono essere definiti disgiunti in quanto contengono almeno un elemento in comune, che nel caso di specie e’ l’elemento “d”. Un esempio di insiemi disgiunti e’ il seguente: X= {a, b, c, d, x, y} Y = {r, s, t , w }.

Una seconda operazione insiemistica fondamentale e’ la intersezione tra insiemi.


Riferendosi al caso basico di due soli insiemi A e B l’intersezione e’ quella operazione che ha quale risultato un insieme C i cui elementi sono tutti e soli gli elementi comuni ai due insiemi dati. L’intersezione tra insiemi che e’ commutativa viene in questo caso formalizzata come segue: C= A∊ B Per essa, come detto, si ha: A∊ B = B∊ A E’ immediato constatare che: 0 ≤| A ∊ B | ≤ min (|A|, |B|) Il caso | A ∊ B |= 0 e’ il caso che i due insiemi A e B siano disgiunti. L’intersezione

insiemistica

e’

estensibile

ad

un

numero

arbitrariamente grande di insiemi, al limite infiniti insiemi. In effetti, non infrequentemente, ci si imbatte in scritture del tipo: A = ⋃+∞ đ?‘– =1 đ?‘‹đ?‘–

(riferita all’unione)

qualunque


B = â‹‚+∞ đ?‘–=1 đ?‘?đ?‘–

(riferita all’intersezione)

Per ragioni logiche e formali nella teoria elementare viene introdotto un insieme detto insieme vuoto, privo di elementi. L’insieme vuoto viene indicato col simbolo ∅ .

Si ammette che |∅| = 0. Deve osservarsi che B = â‹‚+∞ đ?‘–=1 đ?‘?đ?‘– = ∅ quando esiste almeno una coppia di indici (h,k) con h ≠k per i quali đ?‘?â„Ž ∊ đ?‘?đ?‘˜ = ∅. Un ulteriore rilevante nozione della teoria elementare degli insiemi e’ quella di sottoinsieme proprio di un insieme. Dato un insieme A ogni insieme B tale che ogni elemento di B e’ pure elemento di A ma tale che esiste almeno un elemento di A che non e’ elemento di B e’ un sottoinsieme proprio di A. Il formalismo corrispondente e’: B⊂đ??´


I casi B ⊂ đ??´ e B = A sono condensati nel formalismo B ⊆ A. Ogni insieme A viene considerato sottoinsieme improprio di se stesso. Dato un insieme A = {a, b, c, d} i vari sottoinsiemi di essi sono cosi’ elencabili. ∅ , {a}, {b},{c},{d},{a, b},{a, c},{a, d},{b, c}, {b, d},{c, d},{a, b, c},{a, b, d},{a, c, d},{b, c, d},{a, b, c, d} Il numero dei sottoinsiemi, propri e impropri di A e’ 2|đ??´| , ove |A| e’ la cardinalita’ dell’insieme A. Parimenti per ragioni logiche, gia’ nella teoria elementare degli insiemi viene introdotto un insieme detto insieme universo e indicato con la lettera U. L’insieme universo puo’ identificarsi con un qualunque insieme non vuoto. Per ogni insieme A si puo’ scrivere: ∅⊆đ??´ ⊆đ?‘ˆ non potendo, peraltro, per A valore contemporaneamente ∅ =A=U palesemente assurda.


In astratto si potrebbe porre, con riferimento al caso concreto considerato che A si identifica con U e i vari sottoinsiemi di esso definiscono distinti eventi, da quello impossibile corrispondente all’insieme vuoto, ∅, ai singoletti, il cui numero coincide con card(A=U), passando per eventi composti, fino ad arrivare all’evento certo. Il numero degli eventi obiettivamente definibili coincide con il numero 2|đ?‘ˆ| , ove |U| e’ la cardinalita’ dell’insieme U.

Vanno definiti anche gli insiemi complementari. Dato U due insiemi A e B si dicono complementari se: A âˆŞ B = U and A ∊ B = ∅.

Va ora considerata una ulteriore operazione insiemistica, ovvero il prodotto cartesiano. Il prodotto cartesiamo di due insiemi A e B, scritto A ⨉ B e’ un insieme C cosi’ formalizzato:


C = A ⨉ B = {(a, b) : a ∈ A, b ∈ B} Quindi C e’ un insieme avente come componenti, come elementi, quindi, delle coppie ordinate (a, b). Trattandosi di coppie ordinate e’ (a,b) ≠(b, a). Questa banale osservazione giustifica ampiamente la non commutativita’ del prodotto cartesiano per la quale si ha: A⨉B≠B⨉A Un esempio discreto di prodotto cartesiano potrebbe essere il seguente: A = {a, b, c} e B = {x, y, z} dai quali consegue che C = {(đ?›ź, đ?›˝) : đ?›ź ∈ A, đ?›˝ ∈ B} = {(a, x), (a, y), (a, z), (b, x), (b, y), (b, z), (c, x), (c, y) (c, z)} In questo caso si evidenzia che |A ⨉ B| = |đ??´|2 In generale si dimostra facilmente che: |X ⨉ Y| = |đ?‘Œ ⨉ đ?‘‹| = |X||Y|


Nel continuo il prodotto cartesiano non commutativo e’ suscettibile di una semplice rappresentazione grafica molto utile anche in Analisi.

I punti del rettangolo celestino sono le infinite coppie del prodotto cartesiano degli insiemi A e B.

Quanto alle operazioni insiemistiche, oltre a quanto si dira’ di volta in volta nel proseguo della trattazione, va ricordata la differenza tra insiemi, ovvero l’insieme A/B. La scrittura A/B definisce un insieme C i cui elementi sono tutti e soli gli elementi di A che non sono appartenenti a B. Posso fare un esempio.


A = {a, b, c, d } B = {c, d } L’insieme A/B contiene tutti gli elementi di A, ovvero a, b, c, d che non sono elementi di B (ovvero c, d), quindi contiene gli elementi a e b. Formalmente si ha: A/B = {a, b} E’ immediato constatare che A/B = A ⇔ A ∩ B =∅. Va sottolineato che oltre ad insiemi finiti (aventi un numero intero di elementi) esistono insiemi infiniti, ovvero costituiti da un numero infinito di elementi. A loro volta gli insiemi infiniti vengono distinti in infiniti numerabili e in infiniti non numerabili. Si dara’ piu’ oltre la definizione di insiemi numerabili. Gli insiemi finiti sono numerabili. Gli insiemi infiniti possono essere numerabili o non numerabili.


Tra gli insiemi infiniti vi sono certamente gli intervalli della retta reale. Ad esempio l’intervallo ⌋a, bâŚŒ ⊂ R e’ costituito da infiniti numeri reali, ovvero da ogni x tale che đ?‘Ž ≤ đ?‘Ľ ≤ b.

Detto intervallo contiene un numero infinito di punto, ovvero di numeri, ovvero di elementi dell’insieme ⌋a, bâŚŒ. Nella teoria degli insiemi viene spesso introdotto il concetto di numerabilita’ e quindi di insiemi numerabili. Un insieme e’ numerabile quando: a)

e’ costituito da un numero finito di elementi;

b) quando esso e’ infinito, ovvero costituito da un numero infinito di elementi, ma e’ possibile far corrispondere ad un elemento di esso uno ed un solo elemento di N e viceversa in modo che a distinti elementi di detto insieme corrispondano distinti elementi di N, ove N e’ l’insieme dei numeri naturali.


Un ulteriore importante concetto

della teoria degli insiemi e’ quello di

partizione.

Ci si puo’ riferire alla partizione di U, inteso come insieme universo. Si osservi che n distinti insiemi non vuoti denotati con đ??źđ?‘–≤đ?‘› ⊂ U costituiscono una partizione di U se sono verificate le seguenti condizioni: ∀i≤n

đ??źđ?‘–≤đ?‘› ≠∅

∀ (h, k) : h ≠k, h ≤ n, k ≤ n

đ??źâ„Ž ∊ đ??źđ?‘˜ =∅

⋃đ?‘›đ?‘–=1 đ??źđ?‘– = U Deve osservarsi che in generale anche per n assegnato la partizione di un insieme non e’ unica. In ogni caso per un dato U deve ritenersi che esista un đ?‘›đ?‘šđ?‘Žđ?‘Ľ tale che đ?‘›đ?‘šđ?‘Žđ?‘Ľ = |U|, ovvero, in ultima analisi, al numero dei singoletti incompatibili. Un caso banale di partizione e’ quella che definisce gli insiemi A e A’ complementari. In questo caso n = 2.


Vanno infine citate le due identita’ di De Morgan. In termini elementari le due identita’ di De Morgan possono essere scritte come segue: (đ??´ ∊ đ??ľ)đ??ś = AC âˆŞ BC (đ??´ âˆŞ đ??ľ)đ??ś = đ??´đ??ś ∊ đ??ľ đ??ś Consideriamo la seconda relazione formale. (đ??´ âˆŞ đ??ľ)đ??ś = đ??´đ??ś ∊ đ??ľ đ??ś Sia x un elemento di (đ??´ âˆŞ đ??ľ)đ??ś ovvero sia x ∈ (đ??´ âˆŞ đ??ľ)đ??ś , da cui consegue che x ∉

A e x ∉

B. Poiche’ x non appartiene ne’ ad A ne’ a B allora deve

appartenere sia ad đ??´đ??ś đ?‘’ đ??ľ đ?‘? . Pertanto x ∈ (đ??´đ??ś ∊ đ??ľ đ??ś ). Poiche’ detta riflessione e’ estensibile ad ogni x ∈ (đ??´ âˆŞ đ??ľ)đ??ś l’identita’ insiemistica e’ verificata. Si potrebbe anche estendere la dimostrazione evidenziando che se x non appartiene a (đ??´ âˆŞ đ??ľ)đ??ś esso non appartiene neppure a đ??´đ??ś ∊ đ??ľ đ??ś . Cio’ e’ vero per ogni x che soddisfa la condizione.


Riflessioni analoghe possono farsi per la seconda identita’, ovvero per: (đ??´ ∊ đ??ľ)đ??ś = AC âˆŞ BC

Se x appartiene a (đ??´ ∊ đ??ľ)đ??ś allora x non puo’ appartenere ad A ∊ đ??ľ quindi o appartiene ad A oppure a B. Esso puo’ anche non appartenere ad entrambi. Ammettiamo x ∈ A (con x ∉ B ) e il caso simmetrico (x ∈ B (con x ∉ A ). Esaminiamo il primo sottocaso. Da x ∈ A e x ∉ B si ottiene x ∉ đ??´đ?‘? ma x ∈ đ??ľ đ?‘? . Da cio’ si desume immediatamente x ∈ AC âˆŞ BC . Tali argomentazioni sono generali in quanto valide per ogni x appartiene a (đ??´ ∊ đ??ľ)đ??ś . Il secondo sottocaso (simmetrico del primo) e’ trattabile allo stesso modo. Nel caso sia x ∉ A e anche x ∉ B si ha che x e’ comune a đ??´đ?‘? đ?‘’ đ?‘Ž đ??ľ đ?‘? quindi x e’ elemento di đ??´đ?‘? âˆŞ đ??ľ đ?‘? . I ragionamenti possono essere riproposti quando x ∉ (đ??´ ∊ đ??ľ)đ??ś .


Le identita’ di de Morgan sono generalizzabili ad un numero qualunque di insiemi.

8. Sviluppi sugli assiomi di probabilita’ Queste osservazioni sono alla base della formalizzazione degli assiomi. Fu detto che P(S) = 1. Il quarto assioma dice che “se l’intersezione tra due eventi A e B è vuota, allora P(A∪B) = P(A) + P(B)”.

Dire che la intersezione di A e B è vuota vuol dire che i due eventi sono mutuamente esclusivi. Se si verifica A (B) non si verifica B (A). Ma P(A∪B) quantifica la probabilità che si verifichi o l’evento A o l’evento B, (non tutti e due insieme) è immediatamente eguale alla somma delle probabilità che si verifichino i due eventi. Ho rinvenuto un quindi postulato scritto in un formalismo abbastanza complesso.


Esso recita: “Se An è una successione decrescente di eventi e al tendere di n all’infinito tende all’insieme vuoto si ha lim P(An ) = 0” n→+∞

Di questo postulato che può apparire astruso me ne sono dato una giustificazione abbastanza intuitiva, nel senso che se mi è noto che un oggetto puntiforme c sia collocato sicuramente entro un volume V allora P( c in V) = 1, ma se ragiono di un un volumetto infinitesimo dV di V devo ritenere che P(c in dV) = 0.

9. La probabilità secondo Laplace. La prima definizione di probabilità è dovuta a Pierre Simon de Laplace. Essa tiene conto della equiprobabilità. Viene definito lo spazio campionario, inteso come l’insieme i cui elementi sono tutti i possibili eventi equiprobabili. Nella sua Teoria analitica della probabilità Laplace (1812) ha definito la probabilità che si verifichi l’evento e , ovvero P(e) come il rapporto tra i casi favorevoli e il numero dei casi possibili.


In termini formali si scrive:

P(e) =

risultati favorevoli ad e totale dei risultati

Ad esempio, voglio definire e come segue e = “esce un numero pari oppure il numero 1â€?. Definirne la probabilitĂ nel lancio del dado.

Sono, assegnato e, risultati favorevoli ad e il verificarsi di uno dei seguenti casi: esce 1, esce 2, esce 4, esce 6. Pertanto il numero dei risultati favorevoli ad e è 4, mentre il numero dei casi 4

2

possibili è 6, pertanto P(e) = 6 = 3. Essa è immediatamente applicabile agli spazi campione uniformi. La probabilita’ di estrarre una palla bianca da un’urna che contiene x palline bianche e y palline nere e’ đ?‘Ľ

P(esce una pallina bianca) = đ?‘Ľ+đ?‘Ś.


Un interessante saggio sulla probabilita’ ⌋CastelnuovoâŚŒ pone un quesito quale il determinare la probabilita’ che la somma dei due lanci di un dado sia ad esempio 3. Per rispondere ad un quesito del genere e’ facile convincersi che tutti i possibili esiti possono essere posti nella forma di coppie ordinate del tipo (n, m) con la condizione n+ m =3 Per communitativita’ se (n, n) e’ soluzione lo e’ anche (m, n). In definitiva le coppie (1, 2) e (2,1) sono le soluzioni del problema.

2

Pertanto la probabilita’ P(m+ n=3) = 36. 36 e’ 62 che e’ il numero di coppie ordinate corrispondenti a tutte le possibili combinazioni degli esiti delle due estrazioni. Se invece della somma di due estrazioni successive ci si riferisse alla somma di tre estrazioni ci si dovrebbe riferire a terne e quindi a probabilita’ per le quali sia P(m+n+r= đ?‘˜ âˆś 3 ≤ đ?‘˜ ≤ 18 ) =

đ?œ‘(đ?‘˜) 63


10. L’approccio frequentista della probabilità Tale approccio è dovuto a R. von Mises (1957). Questo modello lega la probabilità di un evento e, ovvero P(e), alla frequenza relativa determinata su un numero arbitrariamente grande di eventi elementari successivi. Formalmente essa è P(e) = lim fn (e) n→+ ∞

E’ evidente ⦋Castelnuovo⦌ che “Nel valutare la probabilita’ di un evento occorre dunque tenere conto di certe cautele, se si esige che il valore assegnato si presti ad una verifica sperimentale.”

Va sicuramente fatto qualche cenno alla legge empirica del caso. Essa e’ legata alla definizione di Laplace della probabilita’. Sia dato infatti un esperimento che consiste in n successive prove e che conduca a f esisti favorevoli, essendo f ≤ n. Il numero f e’ detto frequenza assoluta.


đ?‘“

La ratio 0 ≤ đ?‘› ≤ 1 e’ detta frequenza relativa dell’evento. Risulta ⌋CastelnuovoâŚŒ che “la frequenza varia in generale con il numero delle prove e varia pure ove si ripeta una seconda volta lo stesso numero di proveâ€? ma “per una classe estesissima di fenomeni, al crescere del numero n delle prove, la frequenza va oscillando e convergendo intorno ad un limite, il quale coincide con la probabilita’ dell’evento valutata a priori. In termini formali e’ stato ricordato ⌋CastelnuovoâŚŒ che “la locuzione tende ad un limiteâ€? utilizzata nella legge del caso “non va interpretata nel senso preciso che alla locuzione stessa si attribuisce nell’Analisiâ€?. Scrive ancora il Castelnuovo “lanciando 1.000 o 10.000 volte una moneta, e đ?œ‡

1 chiamando đ?œ‡1 e đ?œ‡2 i numeri di colpi ove si presenta testa, le frequenze 1.000 e

đ?œ‡2 10.000

1

sono prossime a 2. Ma non posso prevedere in nessun modo un limite di

errore (‌.)â€?. Per Castelnuovo quindi tale limite non e’ utilizzabile per la costruzione logica del calcolo delle probabilita’ e “l’unico suo ufficio e’ di stabilire un legame tra la teoria e le applicazioni.


11. Probabilita’ dell’evento contrario Ho “mutuato� il titolo del paragrafo dal volume di Castelnuovo citato in bibliografia. Nel lancio del dado ogni evento ammette un evento contrario. Se e e’ l’evento definito di guisa che e = esce un numero compreso tra 2 e 5� l’evento contrario sarebbe e’ = “esce 1 oppure 6�. Detti eventi sono interessanti per diverse ragioni e permettono diverse riflessioni. E’ possibile calcolare, con la logica laplaciana, le relative probabilita’, avendosi 4

2

2

1

che p(e) = 6 = 3 mentre p(e’) = 6 = 3.

Si osservi che la somma delle probabilita’ vale p(e) + p(e’) = 1. Nel linguaggio moderno detti eventi sono detti complementari. Tale risultato non e’ certo casuale. Infatti tale situazione e’ riconducibile ad una somma logica in quanto l’unione dei due eventi riproduce l’evento certo per il quale si ha p(�) = 1.


A volte le situazioni da studiare sono piu’ complesse in quanto potrebbero darsi eventi del tipo đ?‘’1 = “esce un numero n : 1 ≤ n ≤ 4â€? e đ?‘’2 = “esce un numero n : 2 ≤ n ≤ 5â€? Dovrebbe essere necessario calcolare p(đ?‘’1 ∊ đ?‘’2 ). In un caso del genere occorre previamente determinare đ?‘’1 ∊ đ?‘’2 che nel caso di specie sarebbe đ?‘’1 ∊ đ?‘’2 = “esce un numero n : 2 ≤ n ≤ 4â€? da cui si avrebbe che: 3

1

p(đ?‘’1 ∊ đ?‘’2 ) = 6 = 2 Analogamente si ragiona sull’evento đ?‘’1 âˆŞ đ?‘’2 per il quale si puo’ dire che đ?‘’1 âˆŞ đ?‘’2 = “esce un numero n : 1 ≤ n ≤ 5â€? cui immediatamente corrisponde la 5

probabilita’ p(đ?‘’1 âˆŞ đ?‘’2 ) = 6.

Nel caso degli eventi contrari (o complementari, come diciamo oggidi’) valgono le seguenti due relazioni formali: p(đ?‘’1 âˆŞ đ?‘’2 ) = p(đ?›ş) =1


p(đ?‘’1 ∊ đ?‘’2 ) = p(Ă˜) = 0 Altre considerazioni saranno fatte nel proseguo.

12. La Ďƒ-additivita’ Gli asiomi di probabilita’, riferiti ad un insieme Ί, finito o numerabile, quando sia data una partizione di Ί, possono essere essere enunciati come segue. Se esiste una funzione P tale che gli elementi della partizione di Ί detto ℘(Ί) sono associati a elementi di ⌋0, 1âŚŒ per la quale risultino verificate le due seguenti condizioni: P(Ί) = 1 +∞ P(⋃+∞ đ?‘›=1 đ??´đ?‘› ) = ∑đ?‘›=1 đ?‘ƒ(đ??´đ?‘› )

La seconda condizione e’ detta Ďƒ-additivita’. Essa ⌋Caravenna, Dai PraâŚŒ “non e’ una conseguenza dell’additivita’ finitaâ€?. +∞ E’ bene soffermarsi sul secondo postulato, ovvero su P(⋃+∞ đ?‘›=1 đ??´đ?‘› ) = ∑đ?‘›=1 đ?‘ƒ(đ??´đ?‘› )

per chiarirne il significato. Vorrei precisare quanto segue.


Dalla nozione di partizione risulta che gli elementi di essa, sottoinsiemi di Ί, sono a due a due disgiunti. Ho quindi considerato un caso geometrico e quindi un segmento AB coincidente con Ί. E’ ben evidente che detto segmento finito puo’ essere pensato come costituito, e non in unico modo, come la unione di infiniti segmenti a due a due disgiunti tali che AB = ⋃+∞ đ?‘›=1 đ??´đ?‘› , ove ad esempio đ??´1 ≥ đ??´1 đ??ľ1 = ⌋đ?‘Ľđ??´ , đ?‘Ľđ??ľ1 )

In termini geometrici AB = ( ⋃+∞ đ?‘›=1{ ⌋đ?‘Ľđ??´đ?‘– , đ?‘Ľđ??ľđ?‘– )} ⋃ đ?‘Ľđ??ľ ). Ho introdotto una ipotesi provvisoria per la quale P(⌋a,bâŚŒ) = P(⌋a, b) ) L’esempio della particella che deve decadere ⌋Caravenna, Dai PraâŚŒ per il quale Ί=⌋0, +∞) non pone questo appesantimento e il caso di essa nel dominio del tempo sarebbe ( ⋃+∞ đ?‘–=1{ ⌋đ?‘Ąđ??´đ?‘– , đ?‘Ąđ??ľđ?‘– )} La non unicita’ della partizione e’ ben evidente anche nel caso n finito con riferimento al caso della particella. In questo caso lo spazio campione e’ Ί=⌋0, +∞).


Una possibile partizione potrebbe essere ⌋0, +∞) = ⌋0, đ?‘Ą1 ) â‹ƒâŚ‹đ?‘Ą1 , đ?‘Ą2 ) â‹ƒâŚ‹đ?‘Ą2 , +∞ ). Va osservato che esistono infinite partizioni al variare di ( đ?‘Ą1 , đ?‘Ą2 ) con đ?‘Ą1 > đ?‘Ą2 . Ma a fortiori per un dato insieme la partizione puo’ essere costruita non in unico modo al limite come del tipo seguente: ⌋0, +∞) = ⌋0, đ?‘Ą1 ) â‹ƒâŚ‹đ?‘Ą1 , đ?‘Ą2 ) ‌ ‌. â‹ƒâŚ‹đ?‘Ąđ?‘˜ , đ?‘Ąđ?‘˜+1 ) ‌ ‌.

â‹ƒâŚ‹đ?‘Ąđ?‘› , +∞ ) con n

arbitrariamente grande, al limite per n → +∞.

Dal punto di vista della costruzione di un glossario e’ bene ricordare che la coppia (đ?›ş, P) e’ detta spazio di probabilita’ discreto. Solitamente l’insieme Ί e’ detto spazio campionario. Quando n e’ fissato si parla di additivita’ finita, altrimenti di Ďƒ-additivita’.


13. Prime proprieta’ della probabilita’. Nel caso n finito e dato le proprieta’ della probabilita’ sono immediate e in larga parte intuitive. Non infrequentemente si utilizza la rappresentazione grafica data dai diagrammi di Eulero-Venn. Anche la teoria formale ed elementare degli insiemi si presta a dare una sistemazione degli aspetti piu’ elementari. La prima proprieta’ e’ la seguente: (A ⊂ Ί, B ⊂ Ί , Aâ‹‚ đ??ľ = Ă˜ ) ⇒ P(A⋃ đ??ľ) =p(A) + p(B). In particolare p(A) = a < 1 e p(B) < 1 conduce a p(A) + p(B) ≤ 1 .

In dettaglio p(A) + p(B) < 1 quando A⋃ đ??ľ ⊂ đ?›ş mentre si ha p(A) + p(B) = 1 quando A⋃ đ??ľ = đ?›ş. In questo ultimo caso i due insiemi definiscono eventi complementari e risulta che: A = đ??ľ đ??ś e simmetricamente B = đ??´đ??ś


Per detti eventi se p(A) = p allora p(B) = q = 1 – p. In definitiva per due eventi complementari la somma delle probabilita’ vale 1. La situazione si complica leggermente quando A e B non sono disgiunti, ovvero quando Aâ‹‚ đ??ľ â‰ Ă˜. (A ⊂ Ί, B ⊂ Ί , Aâ‹‚ đ??ľ â‰ Ă˜ ) ⇒ P(A⋃ đ??ľ) = đ?‘ƒ(A) + P(B) – P(Aâ‹‚ đ??ľ). Trattandosi di una probabilita’ si ha P(Aâ‹‚ đ??ľ) > 0 quando Aâ‹‚ đ??ľ â‰ Ă˜. Quindi in generale P(A⋃ đ??ľ) ≤ P(A) +P(B). Ove si ammetta che Ί e’ finito e conseguentemente lo siano anche A e B allora si ha che: đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??´

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??ľ

P(A⋃ đ??ľ) = đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş + đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş −

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘(đ??´ â‹‚ đ??ľ) đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş

Se đ??´ â‹‚ đ??ľ =Ă˜ allora card(đ??´ â‹‚ đ??ľ) = 0 e si ricade nel caso precedente ovvero:

P(A⋃ đ??ľ) = đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??´+đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??ľ đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??´ đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??ľ

+ đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş −

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘(đ??´ â‹‚ đ??ľ) đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??´

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??ľ

= đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş + đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş − 0 =

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??´ đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş

đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ??ľ

+ đ?‘?đ?‘Žđ?‘&#x;đ?‘‘đ?›ş =

< 1 quando A⋃ đ??ľ ⊂ đ?›ş, ovvero quando esiste almeno un x ∈Ί tale

che x ∉ A⋃ đ??ľ.


Come e’ ben evidente gli insiemi sono una modalita’ per definire eventi. Deve essere dato un senso all’evento B/A e alla relativa probabilita’ P(B/A). Se A e B sono due insiemi la scrittura B/A definisce un insieme avente come elementi tutti gli elementi di B che non sono elementi di A. Possiamo sicuramente affermare che: Bâ‹‚ đ??´ = Ă˜ ⇔ B/ A = B. Bâ‹‚ đ??´ = Ă˜ ⇔ A/ B = A. In generale per Bâ‹‚ đ??´ = Ă˜ risulta B/ A ≠A/ B, come ovvio.

Nel caso Bâ‹‚ đ??´ = Ă˜, ovvero quando i due insiemi sono disgiunti, si ha: B/ A = B ⇒ p(B/ A) = p(B) Il caso ulteriore – invero degenere – e’ quello per il quale A e B sono eguali, ovvero sono il medesimo insieme. In questo caso scrivere A/B equivale a scrivere A/A.


Il formalismo A/A equivale a considerare l’insieme i cui elementi sono tutti e solo quelli di A che non appartengono ad A. Pertanto si ha A/A = Ø. Pertanto si puo’ scrivere che: p(A/A) = p(Ø) = 0. Il caso sicuramente piu’ interessante e’: A⊂B In questo caso si ha seccamente che P(B∕A) = P(B) – P(A)

Poiche’ si opera su probabilita’, quindi su numeri non negativi, deve risultare P(B∕A) = P(B) – P(A) ≥ 0. Sarebbe P(B∕A) = P(B) – P(A) = 0 quando A=B ovvero quanto P(B∕A) = P(B ∕ B) = P(Ø) = 0 In generale P(B∕A) = P(B) – P(A) > 0.


Trascende dal mio interesse attuale dare un senso ad una scrittura del tipo Aâˆ•Ă˜ che a stretto rigore denoterebbe l’insieme avente per elementi tutti gli elementi di A che non appartengono all’insieme vuoto per il quale si deve ammettere sia Ă˜âŠ‚ A â‰ Ă˜. L’insieme vuoto e’ l’insieme privo di elementi.

Pertanto l’insieme Aâˆ•Ă˜ contiene tutti gli elementi che appartengono ad A e che non appartengono all’insieme vuoto. Nessuno degli elementi di A puo’ appartenere all’insieme vuoto, pertanto si ha che A/Ă˜ = A. In termini formali sarebbe p (A/Ă˜ )= p(A).

L’operazione / non e’ definita quando B ⊂ A. Il caso dell’evento complementare e’ gia noto e rispetto ad esso possono farsi ulteriori considerazioni. Sia dato uno spazio campionario �.


Sia E un sottoinsieme proprio di �.

Dati đ?›ş ed E ⊂ Ί, esiste ed e’ unico đ??¸ đ?‘? ⊂ đ?›ş tale che E âˆŞ đ??¸ đ?‘? = đ?›ş . In termini formali e’ possibile scrivere che: ∀Ί, ∀E : Eâ‹‚ đ?›ş ∃!đ??¸ đ??ś : E⋃ đ??¸ đ??ś = Ί Nel caso particolare E =đ?›ş risulta đ??¸ đ??ś = ∅.

Giova osservare che a distinti eventi corrispondono distinti eventi complementari, ovvero si ha che: đ??¸1 ≠đ??¸2 ⇒ đ??¸1đ?‘? ≠đ??¸2đ?‘?

14. Probabilita’ uniforme Sia dato uno spazio campionario finito, ovvero un insieme di assegnata cardinalita’. Sia esso Ί. Si consideri un insieme (e quindi un evento possibile) A tale che A ⊆ Ί.


|đ??´|

Risulta che P(A) = |�| (deve intendersi che |A| = card. A). Gia’ dalla teoria elementare viene introdotta una ulteriore definizione detta densita’ uniforme. Nel caso di insiemi finiti la densita’ uniforme viene indicata con il seguente formalismo:

p(ω) =

1 |�|

>0

E’ stato osservato ⌋Caravenna, Dai PraâŚŒ che “p(ω) non dipende da ωâ€? .

Ulteriormente, puo’ osservarsi che p(ω) =

1 |�|

e’ una costante dipendente

esclusivamente da |Ί|, ovvero dalla cardinalita’ dell’insieme finito assegnato.

Questa

definizione,

poi,

risulta

assolutamente

imprescindibile

dalla

equiprobabilita’ degli eventi. Va ulteriormente osservato che đ?œ” individua i vari eventi elementari, in altra parte di questa breve nota, detti “atomiciâ€?.


Nel caso del lancio del dado ω assume i valori 1, 2, 3, 4, 5 e 6. Opportunamente ho impostato la definzione di probabilita’ uniforme come segue: đ?‘?đ?‘– (đ?œ”đ?‘– ) > 0 ∀đ?œ”đ?‘– ∈Ί ∑|đ?›ş| đ?‘–=1 đ?‘?đ?‘– (đ?œ”đ?‘– ) = 1 đ??şđ?‘™đ?‘– eventi đ?œ”đ?‘– sono comunemente chiamati singoletti.


15. Esperimenti elementari ripetuti Il primo caso e’ il lancio di una moneta dovendo determinarsi la probabilita’ che appaia una faccia in n lanci e la probabilita’ che le facce si presentino in ordine alternato. Si tratta di un problema di natura combinatoria. Le soluzioni sono per due lanci 4 ovvero TC CT TT CC. T

C

T

TT

TC

C

CT

CC

Nel caso di tre lanci il numero possibile delle combinazioni e’ 23 = 8. Per giungere alle 8 possibili sequenze e’ sufficiente osservare che ogni esito per due lanci puo’ essere rappresentato come segue. TTC , TTT, TCT, TCT, CTC, CTT, CCT, CCC,


Ognuna di esse e’ ottenuta dal caso n = 2, considerando che per ognuna di esse la terza componente e’ alternativamente T e C. Si osservi, al variare di n, che la probabilita’ che si abbiano sequenze di 2

componenti eguali e’ 2đ?‘› ovvero 21−đ?‘› . Per il caso di sequenze alternate si puo’ ragionare come segue. Una serie e’ alternata quando del tipo TCT, oppure CTC. I casi possibili sono 23 . Gli esiti favorevoli sono costantemente due in quanto, anche al variare di n, ovvero numero dei lanci della moneta, la sequenza per n + 1 rilevante non raddoppia in quanto alle sequenze TCT, oppure CTC si hanno le sequenze ulteriori TCTC e TCTT, oppure CTCC e CTCT (a seconda che si inizi da T o C). Ma le sequenze TCTT e CTCC non soddisfano le condizioni del problema,

2

Pertanto la probabilita’ che si abbia una serie alternata e’ 2đ?‘› → 0 per n → +∞ .


Mi sono discostato dalla trattazione del Castelnuovo la sostanza delle cose non cambia. Il secondo caso che si puo’ trattare e’ quello tratto dai dadi non truccati.

Un quesito tipico ⦋Castelnuovo⦌ e’ il seguente: qual e’ la probabilita’ lanciando n volte un dado, di ottenere almeno una volta il punto 6 ? I possibili ed equiprobabili esiti del lancio sono 1, 2, 3, 4, 5 e 6. Lanciando nuovamente il dado ognuno dei precedenti esiti definisce ben 6 esisti composti. Ad esempio se al primo lancio e’ uscito il numero 1 in relazione al secondo lancio sono possibili ben 6 esiti, ovvero le coppie (1,1)….. (1,6).

Questo ragionamento e’ possibile per ogni possibile esito della prima prova (primo lancio…). Questo giustifica ampiamente il fatto che dopo il secondo lancio sono 62 possibili esiti.


Al terzo lancio ognuna delle coppie che definiscono tutti i possibili esiti del secondo lancio e’ la precondizione delle 6 terne del tipo (a, b, n) ove per i dati a e b il numero n assume i valori 1, 2, 3, 4, 5 e 6. Questo giustifica ampiamente il fatto che al terzo lancio del dado i possibili esiti siano 63 . In generale, al variare di n (numero dei lanci) i possibili esiti sono 6� . Il numero delle sequenze (o coppie) che non contengono il numero 6 (o ogni altro numero che

esprime la faccia di un dado) al variare di n sono

rispettivamente 5, 52 ‌. , 5� .

La probabilita’ che una sequenza di n numeri non contenga il numero 6 e’

5đ?‘› 6đ?‘›

5đ?‘›

mentre l’evento complementare ha probabilita’ 1 - 6� . Quindi, in generale, la probabilita’ che in n estrazioni venga estratta una data 5�

5

faccia almeno una volta vale 1 - 6� = 1 - (6)� . Al crescere di n tale probabilita’ tende all’unita’. In definitiva per n grande deve ritenersi praticamente certo che esca almeno una volta una faccia.


Detta probabilita’ in termini formali viene scritta come segue: 5

p = 1 - (6)đ?‘› Da essa si ottiene: 5

(6)đ?‘› = 1 – p đ?‘œđ?‘Łđ?‘Łđ?‘’đ?‘&#x;đ?‘œ: 5

ln(6)đ?‘› = ln(1-p) 5

nln6 = ln(1-p) ln(1−đ?‘?)

n =đ?‘™đ?‘›6−đ?‘™đ?‘›5

Il numero n e’ il numero delle volte che occorre lanciare un dado perche’ ci si possa attendere con una data probabilita’ p l’uscita di una data faccia almeno una volta. In genere si calcola n = n(p).


16. L’approccio di de Finetti – Savage Questo approccio è alquanto generale in quanto consente, come è ben noto, di fare riferimento ad eventi non necessariamente equiprobabili e non necessariamente ripetibili più volte sotto le stesse condizioni. La probabilità viene definita “il prezzo che un individuo ritiene equo pagare per ottenere 1 (in caso di vincita) o 0 in caso di perdita” “ in modo che non ottenga una vincita o una perdita certa” Essa ha un limite soggettivo nella propensione al rischio, che varia da individuo a individuo.

17. Nota matematica – Funzione fattoriale Nelle applicazioni si utilizza spesso una funzione matematica detta funzione fattoriale. Si tratta di una funzione il cui dominio e’ N (insieme dei numeri interi o naturali) e il codominio e’ parimenti N, ovvero una f che manda un intero in un altro intero secondo la seguente legge:


f: n → n!.

Bisogna dare un significato alla scrittura n!.

Si ammette che n! = n(n-1)(n-2) …. 1 Ad esempio e’ 5! = 5*4*3*2*1 Si ammette sia 0! = 1 e 1! =1. Poiche’ a due distinti elementi del dominio, ovvero a 0 e 1, corrisponde un medesimo elemento del codominio non si puo’ parlare propriamente di una corrispondenza biunivoca tra insiemi (dominio e codomonio). Si tratta di una funzione costante a tratti non decrescente e da n≥ 2 crescente.

18. Valore approssimato di n! Spesso in statistica si rende necessario calcolare n!. Per valori di n > 50 si usa una formula approssimata, detta di Stirling, per la 1

quale n! ≃ nn+2 e−n √2π .


Per interessanti osservazioni su detta approssimazione di rimanda alla letteratura ⦋Castelnuovo⦌.

19. Nota matematica – Il calcolo combinatorio. L’analisi combinatoria puo’ essere considerata “un metodo sofisticato di contare” ⦋Spiegel⦌ particolarmente utile quando il numero degli elementi di un insieme e’ molto grande. Un concetto di grande rilevanza e’ quello di corrispondenza biunivoca tra insiemi finiti. Due insiemi A e B finiti sono in corrispondenza biunivoca quando: a) hanno la medesima cardinalita’; b) ad un elemento a di A corrisponde uno ed uno solo elemento b di B e viceversa. Anche insiemi infiniti possono essere in corrispondenza biunivoca. Ad esempio l’insieme N dei numeri naturali e l’insieme ottenuto associando ad un naturale il proprio doppio sono esempi di insiemi in corrispondenza biunivoca.


f : n → 2n L’insieme B = { b : b =2n, ∀n : n ∈ N} e’ un esempio di insieme numerabile. Sinonimi di corrispondenza biunivoca sono i termini biiezione o mappa bigettiva. Occorre ora considerare il principio fondamentale del calcolo combinatorio. Esso ha un enunciato abbastanza intuitivo per il quale se k cose possono essere fatte contemporaneamente ed ognuna di esse considerata singolarmente puo’ essere fatta in đ?‘›đ?‘– ≤đ?‘˜ distinti modi allora il numero possibile delle distinte modalita’ possibili e’ (numero dei modi possibili) e’ đ?‘›1 đ?‘›2 ‌ . . đ?‘›đ?‘– ‌ . . đ?‘›đ?‘˜ . E’ un problema di abbinamenti possibili. Se si hanno a disposizione 7 autisti e 6 macchine, si avranno a disposizione 7 modalita’ diverse di scelta e gli autisti e, a questo punto, 6 alternative per la scelta della macchina, avendo in totale 7*6 distinti possibili abbinamenti. Per descrivere situazioni del genere viene spesso utilizzato lo strumento grafico dei diagrammi ad albero.


Per ragioni di gestibilita’ grafica e’ bene limitarsi ad un caso piu’ contenuto tre auto e due autisti, essendo esse rispettivamente đ?‘€1 , đ?‘€2 , đ?‘€3 e đ??´1 , đ??´2 .

I possibili “assortimentiâ€? sono (đ?‘€1 đ??´1), (đ?‘€1 đ??´2 ), (đ?‘€2 đ??´1 ), (đ?‘€2 đ??´2 ), (đ?‘€3 đ??´1 ), (đ?‘€2 đ??´2 ). Vanno quindi considerate le cosiddette permutazioni. Il caso sicuramente piu’ semplice e’ quello descritto dalla regola della piccionaia.


E’ il caso dell’incasellamento di n oggetti in n caselle. Nella prima casella si puo’ porre una qualunque degli n oggetti, nella seconda le possibili scelte sono (n-1) e quindi per la terza divengono (n−2), etc.

Una rappresentazione grafica evidenzia il contesto.

Si parla al riguardo di permutazioni di n oggetti presi n alla volta. Il formalismo e’ semplice: đ?‘› đ?‘›đ?‘ƒ

=n!

�� e’ un caso piu’ complesso di permutazioni dette anche disposizioni semplici che corrisponde all’incasellamento di n oggetti distinti in k contenitori, coincidente dal punto di vista logico con le possibili scelte tra n elementi presi k alla volta.


đ??źđ?‘› questo caso risulta k < n. đ??´nche in questo caso e’ ammissibile una rappresentazione grafica che considero per il caso k =4.

E’ elementare comprendere che le disposizioni semplici di n elementi presi k alla volta sono formalizzate come segue: đ?‘˜ đ?‘›đ?‘ƒ

= (n −đ?‘˜ + 1)!

đ??źđ?‘› realta’ questa formula difficilmente viene utilizzata e si scrive che: đ?‘›!

đ?‘˜ đ?‘›đ?‘ƒ

= (n −đ?‘˜ + 1)! = (đ?‘›âˆ’đ?‘˜)!

đ?‘˜ đ?‘›đ?‘ƒ

e’ il caso generale che ha đ?‘›đ?‘›đ?‘ƒ come caso particolare. đ?‘›!

đ?‘›!

đ?‘›!

đ??źđ?‘›đ?‘“đ?‘Žđ?‘Ąđ?‘Ąđ?‘–, ponendo n = k nella formula đ?‘›đ?‘˜đ?‘ƒ = (đ?‘›âˆ’đ?‘˜)! si ottiene đ?‘›đ?‘›đ?‘ƒ = (đ?‘›âˆ’đ?‘›)! = 0! =

đ?‘›! 1

= n!

( đ?‘?đ?‘œđ?‘’đ?‘&#x;đ?‘’đ?‘›đ?‘Ąđ?‘’đ?‘šđ?‘’đ?‘›đ?‘Ąđ?‘’ con una giustificazione gia’ data).


Una ulteriore modalita’ e’ costituita dalle disposizioni con ripetizione. Esso e’ concettualmente equivalente al numero possiible di sequenze di incasellamento ottenibili quando sono dati n oggetti collocabili in k distinte caselle (o contenitori). Le disposizioni con ripetizione obbediscono alla logica bernoulliana del reimbussolamento e quindi astrattamente lo stesso elemento puo’ essere collocato in ognuna nelle k celle. Quindi, con riferimento alla singola location il numero delle possibili associazioni e’ sempre n. Questo fatto giustifica ampiamente la formula seguente, facilmente intuibile: đ?‘˜ đ?‘›đ??ˇ

= đ?‘›đ?‘˜

đ??źđ?‘› questo caso non vi sono particolari limitazioni su n e k nel senso che sono ammissibili tutti i casi possibili, ovvero: k < n, k = n, k > n.


Questo caso ha innumerevoli applicazioni pratiche. Ad esempio k potrebbe essere la lunghezza di una stringa binaria (sequenza di zeri e uni). In questo caso n = 2, in quando le modalita’ in cui si presenta il carattere sono solo due. Per esempio per k = 3 si hanno 23 distinte combinazioni possibili che corrispondono al numero di elementi del dominio di una funzione binaria.

Per trattare gli sviluppi del calcolo combinatorio e’ bene introdurre il coefficiente binomiale, strumento utilizzato per lo sviluppo del binomio di Newton. Il coefficiente binomiale e’ scritto con un formalismo ad hoc, ovvero: đ?‘› ( ) che si legge “n su hâ€? đ?‘˜ Si ha: đ?‘› đ?‘›! ( ) = (đ?‘›âˆ’đ?‘˜)!đ?‘˜! đ?‘˜ Detti coefficienti, al variare di k da 1 a n, entrano nella formula dello sviluppo del binomio di Newton, come e’ noto.


A questo punto e’ possibile considerare le combinazioni semplici utilizzando semplicemente la formula:

đ??śđ?‘›,đ?‘˜ =

đ??ˇđ?‘›,đ?‘˜ đ?‘›!

đ?‘› đ?‘›! 1 = (đ?‘›âˆ’đ?‘˜)! đ?‘˜! = ( ) đ?‘˜

Essa indica il numero dei modi (combinazioni possibili, appunto‌) in cui si possono scegliere k oggetti tra n con n > k.

20. Il coefficiente multinomiale Si hanno n oggetti distinguibili. Siano essi raggruppabili in r gruppi. Sia ni il numero degli elementi collocabili nei gruppi (i ≤ r). Si ha che ∑ri=1 ni = n. occorre determinare il numero delle possibili divisioni differenti. Vi sono (nn ) nodi di fissare il primo gruppo. Per il secondo gruppo residuano 1

(n - n1 ) elementi che possono essere combinati in (n −n n1). Iterando il 2

ragionamento si ottiene che il numero delle possibili divisioni è dato da


(nn ) (n −n n1 ) … … (n − n1 −n…− nr−1 ). 1

2

2

Sviluppando

immediatamente che tale numero è (n

1

n ) n,2 …..nr

i

calcoli

si

ottiene

.

21. La distribuzione di Maxwell-Boltzmann Con riferimento alla definizione del coefficiente binomiale ci si chiede quale sia la probabilità che si verifichi l’evento E per il quale il gruppo i-esimo (∀i ≤ r) contiene proprio ni particelle.

Pertanto P(E) = (n

1 n ).rn n …..n 1 2 r

La probabilità condizionata Sia dato S tale che P(S) = 1. Sia dato un evento M tale che P(M) > 0. M è un evento possibile. Sia dato un distinto evento A, pure possibile, per il quale sia P(A) > 0. E’ introdotto un ulteriore approccio alla probabilità: determinare la probabilità che si verifichi l’evento A dopo che si è verificato l’evento M. Ciò è formalizzato come segue: P(A|M).


Si da per assodato di conoscere P(M). La probabilità che si verifichi A quando è data P(M) è, per definizione, P(A|M) = P(A∩M)/P(M). Gli eventi M ed A possono essere impossibili allora immediatamente P(A|M) = 0. Ciò perché il verificarsi di M esclude il verificarsi di A.

22. La probabilità totale Sia S lo spazio campione (universo). Sia definita una partizione insiemistica di S, ovvero si consideri un numero discreto (intero) di sottoinsiemi propri di S. Siano n detti sottoinsiemi propri per i quali si ha Ai ∩ Aj = insieme vuoto e ⋃ni=1 Ai = S. Sia dato un distinto evento B ⊂ S.

Sono note le P(Ai ). Poiché è noto che

B ⊂ S allora dal punto di vista

insiemistico – passando poi alla misura di probabilità – si può ammettere che B ∩ S = B quindi P(B ∩ S) = P(B).


Da B ∩ S = B si ottiene pure B = B∩ (⋃ni=1 Ai )= ⋃ni=1(B ∩ Ai ) Da cui discende che P(B) = ∑ni=1 P(B|Ai)P(Ai )

23. Eventi incompatibili E’ in statistica di fondamentale importanza il concetto di probabilita’ totale riferita ad eventi che si escludono a vicenda, ovvero in relazione a eventi incompatibili.

In casi del genere, solitamente si considerano note le probabilita’ delle distinte modalita’. L’esempio delle estrazioni di palline di colore diverso da una urna potrebbe essere calzante. Se si ha una urna che contiene palline nere, bianche e rosse il principio della probabilita’ totale consente di rispondere a quesiti del genere: “si determini la probabilita’ che estraendo una pallina questa sia rossa o bianca”. In questo caso l’evento “estrazione di una pallina da una urna” si presenta sotto diverse modalita' che, nel caso di specie, sono le seguenti possibilita’: “esce una


pallina rossa� oppure “esce una pallina nera� oppure ancora “esce una pallina bianca�.

Queste modalita’ sono incompatibili in quanto l’uscita di una pallina di dato colore preclude l’uscita della pallina di altro colore, come e’ ovvio. Sulla falsariga di un ottimo testo rinvenuto ⌋CastelnuovoâŚŒ si ammette che la probabilita’ P di un evento che si presenta secondo distinte e incompatibili modalita’ risulta essere: P = ∑ đ?‘ƒđ?‘–

La probabilita’ totale ha molta attinenza con la somma logica. La probabilita’ totale come qui considerata deve essere tenuta distinta dalla probabilita’ totale nel caso di eventi compatibili, argomento importante e frutto di importanti riflessioni di De Morgan e di Boole.

24. La formula di Bayes Siano dati due eventi A e B per i quali è P(A) > 0 e P(B) > 0.


E’ noto che P(A|B) = P(A∩B)/P(B) ⟹ P(A∩B) = P(A|B) P(B) = P(B|A) P(A)

Da P(A|B) P(B) = P(B|A) P(A) si ha P(A|B) =

P(B|A) P(A) P(B)

Questa ultima è detta formula di Bayes. Questa relazione è interpretabile in chiave di eventi causa ed evento effetto. P(A|B) può essere interpretato nel senso che A è la causa una volta che sia stato notato l’effetto B.

25. Eventi indipendenti ed eventi incompatibili Come già detto il formalismo P(A|B) definisce la probabilità che si verifichi l’evento A dopo che si è verificato l’evento B. Se si ammette che P(A|B) = P(A) si intende dire che la probabilità che si verifichi l’evento A è eguale a quella che si verifichi l’evento A dopo che si sia verificato l’evento B. Ciò può essere interpretato in due modalità distinte e non incompatibili. A e B possono essere eventi successivi nel tempo. Basta riandare con la mente all’esempio del dado.


B potrebbe essere l’evento “esce sei al primo lancio”, A è l’evento “esce sei al secondo lancio”. Se si ha P(A|B) = P(A) allora i due eventi sono indipendenti. E’ ben evidente che la probabilità P(A), ovvero che esca la faccia 6 al secondo lancio è 1/6, a prescindere da quanto era accaduto al primo lancio. Se si ammette un decalage temporale tra eventi, o , al limite, una contestualità, è possibile che sia P(A|B) = 0. Essa si interpreta nel modo che segue: il verificarsi di un evento B esclude il contestuale o successivo verificarsi dell’evento A.

Detti eventi sono incompatibili. Il (non) verificarsi di uno dipende dal verificarsi (non verificarsi) dell’altro. Indipendenza e dipendenza di eventi, come visto, sono legate anche al (non) reimussolamento. E’ utile introdurre qualche approfondimento ⦋Caravenna, Dal Pra⦌ che peraltro e’ derivabile dalla teoria della probabilita’ condizionata.


Se P(A|B) = P(A) si evince immediatamente che P(A∊B) = P(A)P(B). Gli eventi indipendenti sono eventi non incompatibili. Due eventi sono incompatibili quando il verificarsi dell’uno non rende possibile il verificarsi dell’altro.

Ad esempio gli eventi “esce un numero pari� ed “esce un numero dispari� sono eventi incompatibili in quanto nel lancio di un dato o esce un numero pari o esce un numero dispari.

Per gli eventi indipendenti va ricordato ⌋Caravenna, Dai PraâŚŒ “il fatto che uno si verifica non modifica la probabilita’ dell’altroâ€?. Gli eventi incompatibili sono tali che P(A∊B) = P(∅) = 0. Un caso particolare di eventi e’ quello per il quale A ⊂ đ??ľ. Un esempio banale potrebbe essere B = “esce un numero pariâ€? e A = “esce il numero 2â€?.


Gli eventi sono certo non incompatibili. Sotto queste condizioni si ha che P(A⊂B) = P(A). A livello avanzato viene data una ulteriore e piu’ sofisticata definizione di indipendenza di eventi.

Si parte sempre da uno spazio di probabilita’ discreta (Ί, P). Si considera un insieme I detto insieme degli indici. Gli eventi đ??´đ?‘– ove i ∈ I si dicono indipendenti quando comunque si prenda un insieme J di cardinalita’ non inferiore a 1, ovvero per ogni J ⊆ đ??ź tale che cardJ ≼ 2, risulta essere: P(â‹‚đ?‘—∈đ??˝ đ??´đ?‘— ) = âˆ?đ?‘— ∈đ??˝ đ?‘ƒ(đ??´đ?‘— ) In buona sostanza quando si dimostri che esistono 2 ≤ k ≤ i eventi tra gli i considerati per i quali risulta P(â‹‚đ?‘˜âˆˆđ??ž đ??´ đ?‘˜ ) ≠âˆ?đ?‘˜ ∈đ??ž đ?‘ƒ(đ??´đ?‘˜ ) quando K ⊆ I si e’ con cio’ dimostrato che gli i eventi non sono indipendenti.


26. Alcune relazioni fondamentali Dato l’evento A∆B definito come A∆B = (A∪B) / (A∩B) se ne determini la probabilita’. La scrittura A∆B significa, in termini insiemistici, considerare l’insieme i cui elementi sono quelli appartenenti ad A e a B ma non comuni ai due insiemi. Ammettiamo che A∪B =Ω e A ∩B = ∅ allora in questo caso A e B sono eventi complementari. In questo caso particolare si puo’ scrivere che: P(A∆B) =P (A∪B)= P(A) + P(B) =1. Fuori da questo caso potrebbe essere A∪B ⊂ Ω e A ∩B = ∅. In questa ipotesi si deve ammettere che sia: P(A∆B) =P (A∪B)= P(A) + P(B) <1.


Potrebbe valere una relazione del tipo AâˆŞB = Ί e A ∊B = đ?‘‹ ≠∅ che si riferisce ai due insiemi, e quindi eventi A e B.

L’insieme A∆B e’ rappresentato in giallo. P(A) + P(B) – P(A∊B) = P(AâˆŞB) P(A) + P(B) = P(A∊B) + P(AâˆŞB) In altri termini si ha che: P(A∆B) =P (AâˆŞB) – P(A∊B) = P(A) + P(B) – P(A∊B) – P(A∊B) = P(A) + P(B) – 2 P(A∊B). Per due eventi A e B di un dato spazio di probabilita’ risulta essere: P(A∊B) ≼ P(A) + P(B) -1 Se i due eventi sono incompatibili ovvero se A∊B = ∅. Pertanto P(∅) ≼P(A) + P(B) -1 ovvero


0 ≥P(A) + P(B) -1 e quindi 1 ≥P(A) + P(B) e in definitiva P(A) + P(B)≤ 1. Se A e B sono complementari si ricade nel caso ben noto P(A) + P(B) = 1. Altrimenti risulta P(A) + P(B) < 1. Va ora considerato il caso A∩B ≠ ∅. Basta partire da P(A) + P(B) = P(A∩B) + P(A∪B) In generale P(A∩B) ≤ P(A∪B) ≤ 1.

P(A) + P(B) - P(A∪B) = P(A∩B) Da cio’ si ottiene che: P(A) + P(B) >P(A∩B) quando P(A∪B)≠0. Ovvero si ha P(A∩B) < P(A) + P(B) ≤ 1.

Sono considerate, essendo esse delle probabilita’, quantita’ reali non negative. La quantita’ P(A) + P(B) soddisfa la relazione 0 < P(A) + P(B) ≤ 1 pertanto la quantita’ P(A) + P(B) -1 risulta tale che P(A) + P(B) -1 ≤ 0 .


Poiche’ la quantita’ P(A∊B) e’ una probabilita’ allora risulta P(A∊B)≼ 0. Ma 0 ≼ P(A) + P(B) -1 e quindi, a fortiori, P(A∊B)≼ P(A) + P(B) -1.

27. Probabilita’ composte La statistica classica ha delineato un principio detto della probabilita’ composta. In questo caso un evento E e’ ritenuto correlato al “concorso simultaneo o successivoâ€? di piu’ eventi đ??¸đ?‘– . In genere sono note le probabilita’ dei singoli eventi đ??¸đ?‘– ovvero si ammettono note le grandezze non negative đ?‘ƒđ?‘– (đ??¸đ?‘– ) . Dette probabilita’ sono dette semplici. Vi e’ un escamotage dimostrativo che consente di ottenere la formula risolutiva del problema. Un evento potrebbe essere l’estrazione di due palline bianche da due distinte urne, 1 e 2, contenenti đ?‘›1 đ?‘’đ?‘‘ đ?‘›2 palline, di cui quelle bianche sono rispettivamente đ?‘?1 đ?‘’ đ?‘?2 .


L’estrazione delle palline puo’ avvenire in đ?‘›1 đ?‘›2 distinti modi. Il numero dei casi favorevoli e’ semplicemente đ?‘?1 đ?‘?2 đ?‘? đ?‘?

đ?‘? đ?‘?

Pertanto la probabilita’ (formula di Laplace) e’ P(bb) = �1 �2 = �1 �2 1

2

1

2

=P(đ??¸1 )P(đ??¸2 ).

A volte questi problemi sono rilevanti in relazione a calcoli di probabilita’ riferiti a situazioni nelle quali non vi e’ riembussolamento. Ad esempio si potrebbe porre una questione del genere: “dire quanto vale la probabilita’ che, data una urna che contenga un eguale numero di palle bianche e nere, ad esempio siano esse n, si estraggano k palline del medesimo coloreâ€?. Ho ideato questo esempio a partire da un esempio rinvenuto ⌋CastelnuovoâŚŒ. đ?‘› đ?‘›âˆ’1

đ?‘›âˆ’đ?‘˜

1 đ?‘›âˆ’1

đ?‘›âˆ’đ?‘˜

Detta probabilita P(bb‌.b) = P(nn‌.n) = 2đ?‘› 2đ?‘›âˆ’1 ‌. 2đ?‘›âˆ’đ?‘˜ =2 2đ?‘›âˆ’1 ‌. 2đ?‘›âˆ’đ?‘˜ (quando non si ha il reimbussolamento, ovvero nella presunzione che le probabilita’ successive siano definite nella presunzione che gli eventi precedenti si siano verificati oltre alla ipotesi che il numero delle palline dei due colori sia lo stesso).


Quando invece il numero delle due palline all’inizio delle estrazioni differisce si puo’ ragionare ad esempio sulle palline bianche per calcolare la probabilita’ che in k successive prove senza reimbussolamento si abbiano proprio k estrazioni. In questo caso si ha che: �

P(bb‌..b) = �

đ?‘›âˆ’1 đ?‘šâˆ’1

đ?‘›âˆ’đ?‘˜

‌.. đ?‘šâˆ’đ?‘˜

ove n e’ il numero delle palline bianche mentre m e’ il numero complessivo delle palle, pertanto m – n e’ il numero delle palline nere. Deve essere n > k. Una ipotesi tranquilla dovrebbe essere il poter ammettere k ≪ �. Smmetricamente la probabilita’ che si abbiano k estrazioni di palline nere risulta essere:

P(nnn‌.n) =

đ?‘šâˆ’đ?‘› (đ?‘š −đ?‘›)−1 đ?‘š

đ?‘šâˆ’1

‌..

(đ?‘šâˆ’đ?‘›)−đ?‘˜ đ?‘šâˆ’đ?‘˜

Deve risultare (đ?‘š − đ?‘›) − đ?‘˜ > 0. Sulle estrazioni e in particolare sullo schema Bernoulli si tornera’ piu’ oltre.


28. Eventi condizionatamente indipendenti Due eventi E1 e E2 sono condizionatamente indipendenti se, verificatosi M, evento possibile, si ha che P(E1 ∩ E2 |M) = P(E1|M)* P(E2 |M).

29. Estrazioni da un’urna Avrei voluto avere tempo di sintetizzare, magari con qualche osservazione le pagg. 19 e seguenti del testo di Guido Castelnuovo (cui paraltro si rimanda), ma alla fine, per esigenze di tempo davvero sempre tiranno, h optato per alcune riflessioni piu’ dimesse… Non va sottaciuto che ⦋Caravenna, Dei Pra⦌ le estrazioni da una urna possono essere utile strumento per i problemi di campionamento. Voglio limitarmi ad una spiegazione elementare dello schema bernouilliano (con reinserimento quindi dell’oggetto estratto via via...). Come ben noto, il problema e’ rappresentabile come segue: Date n palline di due colori (bianche e nere, p.e.) se esse sono m le bianche saranno n – m le nere con l’evidente vincolo n > m.


Il quesito e’, come noto, il seguente: Calcolare la probabilita’ che in x successive estrazioni siano k le palline estratte. Le modalita’ risulutive di dette questioni sono ben note, vorrei pero’ fare alcune riflessioni a partire da un caso per cosi’ dire empirico. Ammettiamo che il numero delle estrazioni sia 3. Sono possibili 23 eventi a prescindere dal numero delle palline. Ove non vi fosse reimbussolamento allora si ragionerebbe sotto la condizione che sia m ≥ 3 ed anche n – m ≥ 3 (infatti, e si avessero solo due bianche la sequenza BBB non sarebbe possibile). Cio’ e’ alquanto intuitivo. Nel caso piu’ generale con reibussolamento quindi i possibili eventi sono: BBB BBN BNB NBB oltre a quelli riflessi


BNN NBN NNB NNN La chiave di lettura delle sequenze e’ ovvia. La stringa BBB vuol dire che sperimentalmente si e’ ottenuta la sequenza di uscita di tre palline bianche, etc.. Schematicamente b e m indichi il numero delle palline bianche e nere rispettivamente. Va rimarcato che in generale gli 8 eventi considerati non possono ritenersi equiprobabili. đ?‘?

đ?‘š

Ad esempio si avrebbe P(BBB) = (�)3 ma P(NNN) = ( � )3 . Dette probabilita’ non sono eguali essendo in generale b ≠m. Vi saranno comunque eventi diversi equiprobabili come BNN e NNB e NBN.


30. Prove Dalle argomentazioni a proposito del lancio dei dadi ben si comprende il concetto di sottoesperimenti indipendenti, costituiti da n lanci, o come si dice, da n prove successive nel tempo. A detta situazione è equiparato il caso del lancio simultaneo di n distinti dadi.


31. La probabilità in prove ripetute E’ assegnato uno spazio campione S, ovvero l’insieme i cui elementi sono tutti e soli i possibili esisti di una prova. Con riferimento ad ognuna delle prove successive è possibile definire la probabilità di successo P(E) = p e la probabilità di insuccesso (1-p) =P(E c ), ove la notazione E c denota l’evento complementare rispetto ad E. Se l’evento E è definito come “esce la faccia numero 1”, l’evento complementare E c è definito come “esce la faccia 2, oppure la faccia 3, oppure la faccia 4, oppure la faccia 5, oppure la faccia 6”. E’ ben evidente che dato E, si ha che E ∪ E c = S. Si consideri un evento E. Quindi si ammetta di effettuare n prove successive. Sia Sn il numero dei successi nelle n prove. Sia T il numero delle prove fino al primo successo. Può essere richiesto di definire le probabilità relative ai seguenti eventi: -

almeno un successo nelle n prove;

-

k successi dopo n prove;


-

il primo successo alla i-esima prova.

1° caso:

P(almeno un successo nelle n prove).

Se p è la probabilità del successo alla prima prova, simmetricamente l’insuccesso sarà con probabilità (1- p) come già detto (eventi complementari). La probabilità di insuccesso dopo n prove sarà pari a (1 − p)n La probabilità di successo (almeno uno) dopo n prove sarà quindi 1 - (1 − p)n

2° caso:

P(k successi dopo n prove).

Ammettiamo che si abbiano k successi. Vi saranno quindi (n-k) insuccessi. Immediatamente si ha che P(k successi dopo n prove) = pk (1 − p)n−k

3° caso:

P(il primo successo alla i-esima prova).

Se desidero definire la probabilità di avere il primo successo alla i-esima prova devo ammettere che vi siano stato (i-1) insuccessi successivi, con probabilità (1p). Pertanto la probabilità richiesta è eguale a ((1 − p)i−1 )p.


Andando oltre i contenuti del testo – che pure ho sintetizzato intuitivamente – è possibile definire questioni del tipo P(il terzo successo avvenga alla k-esima prova). In questo caso vengono svolte sicuramente k prove la probabilità dovrebbe risultare p3 (1 − p)k−3. Infatti per definire un successo alla k-esima prova, con probabilità p, vi devono essere stati due successi con probabilità p e k-2 -1 insuccessi con probabilità (1- p). Se su ammette costante k per esempio k = 100 è possibile generalizzare in termini di numero di successi, nel senso di definire la probabilità che il successo φ-esimo si abbia alla prova k-esima. Detta probabilità vale pφ (1 − p)k−φ

In un contesto del genere non rileva conoscere in quali prove si sono avuti i primi due esiti favorevoli. Ci si deve porre una questione più generale. Determinare la probabilità che su un certo numero di prove si abbiano φ successi è che il φ-esimo successo si


abbia alla prova k quando è noto che φi denota l’esito positivo alla i-esima prova.

32. Speranza matematica Il concetto di speranza matematica puo’ ritenersi sinonimo di valore medio. Solo poche righe per ricordare che per speranza matematica si intende, riferendosi ad un guadagno fortuito, “il prodotto della somma costituente il guadagno per la probabilita’ di conseguirlo” ⦋Castelnuovo⦌. Il termine guadagno va inteso in senso algebrico, inteso positivamente come somma riscossa da un soggetto ma anche, e simmetricamente, come somma pagata dalla controparte. Piu’ precisamente, si definisce gioco equo, quello per il quale la somma algebrica delle speranze matematiche e’ nulla. Nel gioco i due giocatori mettono a disposizione le somme s ed s’, dette complessivamente posta del gioco. Il vincitore incamera la somma s + s’ mentre l’altra parte (chi perde) perde la somma s’.


Il vincitore aveva una probabilita’ p di vincere la somma s + s’ detta attivo aleatorio, a fronte di un passivo certo s. In un gioco equo la speranza matematica positiva di ciascun giocatore eguaglia la sua speranza matematica negativa.

Il concetto di speranza matematica e’ generalizzato in quello di variabile casuale, trattata piu’ oltre.

33. Spazi campione continui Nei casi considerati fino ad ora lo spazio campione contiene un numero finito di elementi (eventi possibili). Al riguardo opera una distinzione fondamentale, quella tra spazi continui uniformi e spazi continui non uniformi. Si parte dal caso di spazi continui uniformi. Esempio: scelta a caso di un numero reale appartenente ad un dato intervallo S = [0, k].


Ci si chiede di definire la probabilità che x appartenga ad [a, b ] ⊂ [0, k]. b−a

P(x : x ∈ [a, b ] ⊂ [0, k]) = 10−0 =

b−a 10

Un segmento di estremi A e B contiene un numero infinito di punto. La probabilità puntuale è nulla P(x = xi ) = 0 Ragionamenti analoghi si possono fare in R2 . Va ora considerato il caso di spazi continui non uniformi. In questo caso viene eliminata la condizione di equiprobabilità, attribuendo quindi un peso ai punti, all’uopo introducendo una funzione detta densità di probabilità. Sia sempre dato l’ intervallo S = [0, k].

La funzione densità di probabilità è una funzione di una variabile reale integrabile in ogni punto di S. Quelle solitamente rappresentate sono continue. b

Detta funzione è tale che P(x : x ∈ [a, b ] ⊂ [0, k]) = ∫a f(x)dx


Ciò è vero per definizione. L’area sotto f(x) dati gli estremi di integrazione definisce la probabilità che x appartenga ad un dato intervallo chiuso di estremi (minimo e massimo, rispettivamente) a e b. Per soddisfare gli assiomi di probabilità è necessario normalizzare dovendo essere la probabilità che x ∈ [0, k] sia eguale a 1. k

P(x : x ∈ [0, k]) = ∫o f(x)dx = 1.

La procedura di normalizzazione consiste nell’imporre questo ultimo integrale pari a 1 all’uopo considerando f(x) = y come una costante, portandola quindi “fuori da integrale”. Nel caso di specie si ha 1 = yk quindi y = 1/k quando x è in S, e zero, quando x non è in S.

34. Spazi discreti visti come continui Si può avere a che fare con uno spazio binario S = ⦃0 , 1⦄ nel quale non valga la equiprobabilità, ma sia p la probabilità che si verifichi l’evento “esce lo zero”


e sia (1-p) la probabilità che esca il numero 1. Si ammette sia p noto con 0 < p < 1. La funzione di probabilità f(x) deve essere tale che f(0) = p e f(1) = 1-p e sia f(x) = 0 per ogni x ≠ 1 ≠ 0. Essa va però normalizzata.

Più correttamente è possibile considerare due intervalli simmetrici di raggio

ε 2

dei punti 0 e 1.

Poiché la funzione – anche normalizzata – deve essere identicamente eguale a zero per x ≠ 0 ≠ 1, occorre – ed è sufficiente – che la somma delle aree dei rettangoli centrati in 0 e in 1 valga proprio 1 unità superficiali. Detti rettangoli hanno entrambi base eguale a ε. La condizione, algebricamente ricavabile, per la quale dato p, sia che la somma delle aree di essi sia 1, è, p

immediatamente, ε e

1−p ε

, rispettivamente.

Da queste osservazioni si può pervenire alla definizione della funzione impulsiva δ di Dirac.

Infatti data la funzione φ(x) =

1 ε

ε

per - 2 < x < +∞

ε 2

con φ(x) = 0 altrove allora

essa è una funzione di probabilità in quanto ∫−∞ φ(x)dx = 1, immediatamente.


Quando Îľ → 0 allora si ha lim φ(x) = δ(x), detta delta di Dirac. ξ→0

35. Sviluppi sulle Ďƒ-algebre Gli sviluppi relativi all’oggetto sono ben spiegati nella manualistica ⌋Caravenna, Dei PraâŚŒ cui si rimanda per gli sviluppi e gli approfondimenti. E’ assegnato un insieme finito non vuoto detto đ?›ş. Si considera l’insieme delle parti di Ί indicato come đ?›¤(đ?›ş). Si consideri una famiglia di insiemi tali che sia đ?’œ ⊆ đ?›¤(đ?›ş), quindi đ?’œ deve essere inteso come un insieme avente come elementi tutti o una parte degli elementi (che, a parte il bisticcio di parole, sono insiemi‌..) appartenenti all’insieme delle parti di Ί, ovvero đ?›¤(đ?›ş). Si ammettono vere le seguenti condizioni: ∅∈đ?’œ A ∈ đ?’œ ⇒ đ??´đ?‘? ∈đ?’œ


Se An e’ una successione numerabile di elementi di đ?’œ allora anche la loro unione finita e’ un elemento di đ?’œ. Detta unione e’ indicata come ⋃đ?‘› đ??´n Tutti gli A ∈ đ?’œ sono detti sottoinsiemi numerabili di đ?“?. Valgono le due identita’ fondamentali di De Morgan. Assegnati Ί e đ?“? la coppia (Ί, đ?“?) e’ detta spazio numerabile. Gli A ⊆ đ?“? sono detti eventi. Sotto queste condizioni viene definito lo spazio di probabilita’ generale. La probabilita’, come e’ noto, e’ intendibile come una funzione tale che P : đ?“? →⌋ 0, 1 âŚŒ Il dominio della funzione sono gli elementi di đ?“?. Il codominio e’ ⌋ 0, 1 âŚŒ. La prima proprieta’ rilevante e’ la definzione formale di evento certo, ovvero: P(Ί) = 1


La seconda proprieta’ e’ comunemente detta Ďƒ-additivita’. Essa presuppone una successione numerabile An di elementi disgiunti di đ?“?. Cio’ equivale ad affermare che đ??´đ?‘–−1 ∊ đ??´đ?‘– =∅ per ogni i ≤ n. Sotto questa condizione la Ďƒ-additivita’ viene semplicemente scritta come: P(⋃đ?‘› đ??´đ?‘› ) = ∑đ?‘› đ?‘ƒ(đ??´n) Lo spazio di probabilita’ e’ definito dalla terna (Ί, A, P) ed e’ detto spazio di probabilita’ generale.

36. Variabili casuali Del concetto di variabile casuale detta anche variabile aleatoria si puo’ dare una definizione elementare. Una quantita’ variabile X che puo’ assumere i distinti valori đ?‘Ľđ?‘– associati ad eventi đ??¸đ?‘– incompatibili con probabilita’ đ?‘?đ?‘– tali che ∑ đ?‘?đ?‘– = 1. Una variabile casuale e’ posta in forma canonica quando đ?‘Ľđ?‘– ≠đ?‘Ľđ?‘–+1.


Tra gli esempi fisici di variabili casuali vi e’ sicuramente l’errore commesso nella misura di una grandezza quando l’operazione venga ripetuta piu’ volte. Relativamente alle variabili casuali va introdotto il valore medio. Gli đ?‘Ľđ?‘– devono essere ricavati per via sperimentale ⌋CastelnuovoâŚŒ. Si impone di partire dalla media aritmetica ovvero dalla quantita’: ∑ đ?‘“ đ?‘– đ?‘Ľđ?‘– đ?‘

essendo N il numero delle prove ripetute e đ?‘“đ?‘– la frequenza assoluta riferita alla i-esima modalita’ possibile. Per immediati passaggi si ha: ∑ đ?‘“ đ?‘– đ?‘Ľđ?‘– đ?‘

đ?‘“

= ∑ đ?‘ đ?‘– đ?‘Ľđ?‘– = ∑ đ?‘?đ?‘– đ?‘Ľđ?‘–

La grandezza ∑ đ?‘?đ?‘– đ?‘Ľđ?‘– e’ detta valore medio teorico o comunemente valore medio della variabile casuale X. Le variabili casuali vengono chiamate spesso e comunemente anche variabili aleatorie.


Come sinonimi di valore medio si utilizzano spesso i termini “valore probabile” od anche “speranza matematica”. Si ammette che ⦋Castelnuovo⦌ “la variabile (...) oscilla intorno al suo valore medio”. Frequentemente e’ rilevante conoscere l’ampiezza di tali oscillazioni, comunemente chiamati scarti, o spostamenti, o anche deviazioni. Solitamente e’ assegnata una variabile casuale X di cui e’ noto il suo valore medio m. In termini formali, tale informazione viene scritta come: M(X) = m

Detta formula deve leggersi come “il valore medio della variabile casuale X e’ m”. Cio’ premesso, e’ possibile considerare una nuova variabile casuale Y definita come:


Y=X–m Detta variabile nella forma canonica assume i valori đ?‘Śđ?‘– = đ?‘Ľđ?‘– – m. (đ?‘Ľđ?‘– ≠đ?‘Ľđ?‘–+1 ⇒ đ?‘Śđ?‘– ≠đ?‘Śđ?‘–+1 ) Per ognuno dei valori đ?‘Śđ?‘– = đ?‘Ľđ?‘– – m si ha una corrispondente probabilita’ đ?‘?đ?‘– . Si dimostra che il valore medio dello scarto e’ 0. Una possibile dimostrazione e’ la seguente.

M(Y) = M(X – m) = ∑

đ?‘“đ?‘– đ?‘

∑(đ?‘Ľđ?‘– −đ?‘š)đ?‘“đ?‘– đ?‘

=∑

đ?‘Ľđ?‘– −đ?‘š đ?‘

đ?‘Ľ

đ?‘š

đ?‘“đ?‘– = ∑( đ?‘ đ?‘– − đ?‘ ) đ?‘“đ?‘– = ∑

đ?‘Ľđ?‘–đ?‘“ đ?‘

đ?‘–

−∑

đ?‘šđ?‘“đ?‘– đ?‘

=

đ?‘“

đ?‘Ľđ?‘– − ∑ đ?‘ đ?‘– m = ∑ đ?‘?đ?‘Ľ đ?‘Ľđ?‘– - m∑ đ?‘?đ?‘– = m -m1 = 0, c.v.d..

Vanno considerati ora alcuni noti teoremi sul valore medio. Essi sono i seguenti. E(cX) = cE(X) La lettera E sta’ per expetcted, in quanto il valore medio e’ detto anche valore atteso.


Risulta che: E(X) = ∑đ?‘– đ?‘?đ?‘– đ?‘Ľđ?‘– (per definizione). Ma risulta anche E(cX) = ∑đ?‘– đ?‘?đ?‘?đ?‘– đ?‘Ľđ?‘– = c ∑đ?‘– đ?‘?đ?‘– đ?‘Ľđ?‘– = cE(x). Un secondo teorema relativo al valore medio e’ il seguente. E(X+Y) = E(X) + E(Y) Questo teorema a parole puo’ essere enunciato dicendo che il valore atteso della somma di due variabili casuali e’ eguale alla somma dei valori attesi delle due variabili casuali. Solitamente la dimostrazione di questo teorema ⌋SpiegelâŚŒ avviene utilizzando lo strumento della doppia sommatoria. In modo non convenzionale ho operato come segue: E(X)= ∑ đ?‘?đ?‘–,đ?‘Ľ đ?‘Ľđ?‘– E(Y)= ∑ đ?‘?đ?‘—,đ?‘Ś đ?‘Śđ?‘— Il primo membro puo’ essere riscritto come segue: E(X+Y) = ∑(đ?‘Ľđ?‘– + đ?‘Śđ?‘— ) đ?‘?đ?‘Ľ,đ?‘Ś =∑ đ?‘Ľđ?‘– đ?‘?đ?‘Ľ,đ?‘Ś + ∑ đ?‘Śđ?‘— đ?‘?đ?‘Ľ,đ?‘Ś


Con questo modo di procedere sarebbe: ∑ đ?‘Ľđ?‘– đ?‘?đ?‘Ľ,đ?‘Ś + ∑ đ?‘Śđ?‘— đ?‘?đ?‘Ľ,đ?‘Ś = ∑ đ?‘?đ?‘–,đ?‘Ľ đ?‘Ľđ?‘– + ∑ đ?‘?đ?‘—,đ?‘Ś đ?‘Śđ?‘— Secondo questo modo di procedere sarebbe đ?‘?đ?‘Ľ,đ?‘Ś = đ?‘?đ?‘–,đ?‘Ľ = đ?‘?đ?‘—,đ?‘Ś . Un terzo teorema, che si dimostra con le doppie sommatorie, prevede che per due variabili casuali indipendenti sia: E(XY) = E(X)E(Y)

Va dato conto del significato fisico del valore atteso. Esso si identifica con il concetto fisico di baricentro.

Vanno ora considerati i sistemi di variabili casuali. Le variabili casuali possono essere correlate ovvero possono essere considerati sistemi di variabili casuali. Se si hanno due variabili casuali X ed Y


I possibili esiti dell’esperimento “lancio contestuale di un dado e di una moneta: sono: (1, T), (2, T), (3, T), (4, T), (5, T), (6, T) (1, C), (2, C), (3, C), (4, C), (5, C), (6, C).

Se il dado e la moneta non sono truccati la probabilita’ che si verifichi ognuno 1

1

degli eventi ipotizzabili, tutti egualmente equiprobabili, e’ �� = 12. Gli eventi sono indipendenti e il risultato trovato concorda con il teorema della 1

1

1

probabilita’ riferita ad eventi indipendenti 6 ∗ 2 = 12. 1

In questo caso particolare si puo’ scrivere che đ?‘?đ?‘–đ?‘— = 12 per ogni coppia (i, j). In realta’ nella logica delle variabili casuali la quantita’ non negativa ma minore di 1 đ?‘?đ?‘–đ?‘— non deve intendersi costante al variare degli indici i e j. Nell’esperimento considerato cio’ equivarrebbe a truccare la moneta e il dado con una ipotesi corrispondente a questi due vincoli: 1

đ?‘?đ??ś + đ?‘?đ?‘‡ = 1 con đ?‘?đ??ś ≠đ?‘?đ?‘‡ ≠2


1

đ?‘?1 +đ?‘?2 +đ?‘?3 +đ?‘?4 +đ?‘?5 +đ?‘?6 = 1 tali che esiste almeno un đ?‘?đ?‘˜â‰¤6 ≠6.

đ?‘ đ?‘’đ?‘™ caso piu’ ampio i vari đ?‘?đ?‘˜â‰¤6 possono essere tutti diversi con la condizione che ∑ đ?‘?đ?‘˜â‰¤6 = 1. Poiche’ gli eventi sono indipendenti deve comunque, anche in questo caso, risultare đ?‘?â„Žđ?‘˜ = đ?‘?â„Ž đ?‘?đ?‘˜ Nella logica di dadi e monete truccate la probabilita’ dell’evento “esce un numero qualunque e testaâ€? corrispondente agli eventi elementari seguenti (1, T), (2, T), (3, T), (4, T), (5, T), (6, T) e’ espresso dal numero non negativo minore di 1, đ?‘?đ?‘‡ in quanto detto evento composto e’ la somma logica di due eventi ovvero “esce un qualunque numeroâ€? e “esce Tâ€?. I due eventi sono indipendenti. Quindi la probabilita’ di detto evento e’ il prodotto delle probabilita’ dei due eventi, ovvero 1đ?‘?đ?‘‡ = đ?‘?đ?‘‡ . Si potrebbe ritagliare un esempio piu’ sofisticato come quello evidenziato dalla figura sottostante e dalla linea che racchiude l’evento.


(1, T), (2, T), (3, T), (4, T), (5, T), (6, T) (1, C), (2, C), (3, C), (4, C), (5, C), (6, C).

L’evento evidenziato dal percorso chiuso disegnato in rosso in termini discorsivi potrebbe essere “esce testa con uscita del dado superiore a 1 oppure esce croce e in contemporanea esce una faccia 3, 4, o 5�. Seccamente la probabilita’ di detto evento e’ ricavabile dalla formula di Laplace ovvero

đ?‘›đ?‘˘đ?‘šđ?‘’đ?‘&#x;đ?‘œ đ?‘‘đ?‘– đ?‘?đ?‘Žđ?‘ đ?‘– đ?‘“đ?‘Žđ?‘Łđ?‘œđ?‘&#x;đ?‘’đ?‘Łđ?‘œđ?‘™đ?‘– đ?‘›đ?‘˘đ?‘šđ?‘’đ?‘&#x;đ?‘œ đ?‘‘đ?‘– đ?‘?đ?‘Žđ?‘ đ?‘– đ?‘?đ?‘œđ?‘ đ?‘ đ?‘–đ?‘?đ?‘–đ?‘™đ?‘–

8

2

= 12 = 3.

Quando gli eventi non sono equiprobabili la probabilita’ non e’ calcolabile nel modo solito ma ulteriormente‌ Si potrebbe pensare di ragionare nel modo seguente. La probabilita’ dell’evento ⌋ (2, T), (3, T) , (3,T), (4, T), (5, T), (6, T), (3, C), (4, C), (5, C) âŚŒ puo’ essere intesa come la somma delle probabilita’ dei due seguenti eventi ⌋ (2, T), (3, T) , (3,T), (4, T), (5, T), (6, T)âŚŒ e ⌋(3, C), (4, C), (5, C) âŚŒ.


Si osservi peraltro che ⌋ (2, T), (3, T) , (3,T), (4, T), (5, T), (6, T), (3, C), (4, C), (5, C) âŚŒ = ⌋ (2, T), (3, T) , (3,T), (4, T), (5, T), (6, T)âŚŒ âˆŞ ⌋(3, C), (4, C), (5, C) âŚŒ essendo ⌋ (2, T), (3, T) , (3,T), (4, T), (5, T), (6, T)âŚŒâˆŠ ⌋(3, C), (4, C), (5, C) âŚŒ = ∅. Pertanto la probabilita’ dell’evento definito potrebbe scriversi come: ∑6đ?‘–=2 đ?‘?đ?‘– đ?‘?đ?‘‡ + ∑5đ?‘–=3 đ?‘?đ?‘– đ?‘?đ??ś = đ?‘?đ?‘‡ ∑6đ?‘–=2 đ?‘?đ?‘– +đ?‘?đ??ś ∑5đ?‘–=3 đ?‘?đ?‘– < 1.

37. Distribuzioni di probabilita’ E’ utile partire dalla nozione di distribuzione di probabilita’ discreta. Data una variabile stocastica X tale che đ?‘Ľđ?‘– < đ?‘Ľđ?‘–+1 (quando essa e’ data in forma canonica) per ogni valore della quale e’ data la relativa probabilita’ đ?‘?đ?‘Ľđ?‘– , viene introdotta una particolare funzione detta di probabilita’ detta anche distribuzione di probabilita’. Per essa risulta: f(x) = P(X=x). Piu’ precisamente si ha che la f(x) e’ una funzione di probabilita’ quando sono verificate le seguenti condizioni:


f(x) = 0 ∀x : x ∈ R / {đ?‘Ľđ?‘– } f(x) = P(X=đ?‘Ľ) ∀ đ?‘Ľ âˆś đ?‘Ľ ∈ {đ?‘Ľđ?‘– } f(x) ≼ 0 ∀ đ?‘Ľ âˆś đ?‘Ľ ∈ {đ?‘Ľđ?‘– }

In realta’ il simbolo ≼ sembra ridondante e sostituibile con >. Si deve rimarcare che il valore đ?‘Ľđ?‘– = 0 e’ ammissibile. Una ulteriore fondamentale proprieta’ e’ la seguente: ∑đ?‘Ľ ∈ {đ?‘Ľđ?‘– } đ?‘“(đ?‘Ľ) = 1. đ??ˇđ?‘’đ?‘Ąđ?‘Ąđ?‘Ž funzione e’ immediatamente graficabile nel piano (x, f(x)).

Come si e’ gia’ detto, le variabili casuali possono essere viste, e solitamente lo sono, da un punto di vista sperimentale. Va ad esempio considerato il lancio contestuale di due monete cui corrisponde lo spazio campionario {TT, TC, CT, CC} e la variabile casuale X = “numero delle teste�. Si ha questa immediata corrispondenza.


TT

TC

2

1

CT

CC

1

0

X in buona sostanza indica il numero delle volte che esce testa. La variabile casuale X per come e’ stata definita assume i valori 2, 1 e 0, che, costituiscono il dominio della variabile aleatoria considerata. Ad ogni đ?‘Ľđ?‘– ∈ dom X corrisponde uno ed un solo valore đ?‘?đ?‘Ľđ?‘– , non negativo. Nel semplice caso considerato, tratto da un testo indicato nella bibliografia ⌋SpiegelâŚŒ risulta essere 1

P(X =0) = P(evento CC) = 4 P(X=1) = P(evento TC) oppure P(evento CT) = P(evento TC) +P(evento CT) 1

1

2

1

=4+4=4=2 1

P(X=2) = P(evento TT) = 4


Va in ogni caso evidenziato che la corrispondenza spazio campionario → variabile casuale non e’ univoco. Infatti sempre con riferimento al medesimo spazio campionario discreto, ovvero a {TT, CT, TC, CC} e’ possibile considerare una distinta variabile aleatoria come la Y seguente definita come Y = “le due estrazioni simultanee sono eguali”.

Si ha questa immediata corrispondenza. TT

TC

1

0

CT

CC

0

1

Immediatamente si comprende che la variabile casuale ammette due soli valori, 1

0 e 1 con evidente probabilita’ per entrambi pari a 2. Con riferimento al primo dei casi considerati il grafico e’ il seguente.


Giunti a questo punto si deve introdurre la funzione di distribuzione cumulativa.

Detta funzione viene cosi’ scritta: F(x) = P(X ≤ x) =∑đ?‘˘â‰¤đ?‘Ľ đ?‘“(đ?‘˘) Si tratta di una funzione a gradini monotona crescente. Con riferimento al caso esaminato la funzione cumulata si ottiene come segue: 1

F(0) = P(X ≤ 0) = 4

F(1) = P(X ≤ 1) = P(X= 0) + đ?‘ƒ(đ?‘‹ = 1) =

1 4

1

2

+4 = 4 =

1 2


F(2) = P(X ≤ 2) = P(X= 0) + đ?‘ƒ(đ?‘‹ = 1) + P(X=2) =

1 4

1

1

4

2

+ + = 1.

La rappresentazione grafica di tale situazione e’ la seguente.

Va ora considerato il caso delle variabili casuali continue. Nel caso delle variabili casuali continue il dominio della variabile casuale e’ il continuo reale, ovvero l’insieme (−∞ , +∞) . Viene ad essere assegnata una funzione f tale che f(x) ≼ 0. Essa e’ detta funzione di probabilita’. Per detta funzione risulta: +∞

âˆŤâˆ’âˆž đ?‘“(đ?‘Ľ)đ?‘‘đ?‘Ľ = 1.


đ??şđ?‘™đ?‘– sviluppi sono interessanti in quanto consentono di dare un senso a un quesito del genere: definire e determinare la probabilita’ che una variabile casuale assuma un valore compreso nell’intervallo ⌋a, bâŚŒ con a <b. đ?‘†đ?‘– â„Žđ?‘Ž che: đ?‘?

đ?‘ƒ(đ?‘Ž ≤ X ≤ b) = âˆŤđ?‘Ž đ?‘“(đ?‘Ľ)đ?‘‘đ?‘Ľ Anche in questo caso e’ possibile definire una funzione di distribuzione cumulata per variabili casuali continue, definita formalmente come segue: đ?‘Ľ

F(x) = P(X≤ đ?‘Ľ) = P(−∞ < X ≤ x) = âˆŤâˆ’âˆž đ?‘“(đ?‘˘)đ?‘‘đ?‘˘ (per evitare confusione si utilizza un indice muto, in questo caso u).

Si puo’ ammettere che per variazioni infinitesime della x sia: �+��

P(x < X ≤ x+đ?‘‘đ?‘Ľ) = âˆŤđ?‘Ľ

�(�)�� ≅ f(x)dx

Nel caso di v.c. continue si ha la seguente rappresentazione grafica delle funzioni f(x) e F(x) come definite.


Mentre la funzione cumulata e’ crescente o strettamente crescente limitata, risultando la retta y = 1 un asintoto orizzontale.

Risulta che: lim đ??š(x) = 1.

đ?‘Ľ →+∞


Va ora considerato un approfondimento relativo al caso delle distribuzioni doppie riferite alle variabili casuali X ed Y. Al riguardo e’ possibile definire una funzione di probabilita’ doppia intesa come segue: P(X = x, Y =y ) = f(x,y) Valgono due condizioni, ovvero che: f(x,y) ≼ 0 ∑đ?‘Ľ ∑đ?‘Ś đ?‘“(đ?‘Ľ, đ?‘Ś) = 1 đ??źđ?‘› questo caso compare una doppia sommatoria, equivalente discreto di un integrale doppio.

�� ammette che le variabili casuali discrete considerate, ovvero X ed Y siano tali che esse assumano i valori �1 ,‌.., �� e �1 ‌ . . �� ove in generale puo’ anche essere m ≠n.


In casi del genere acquista significato un quesito del genere: determinare la probabilita’ che le variabili casuali X ed Y assumano i valori X = đ?‘Ľâ„Ž e (in senso logico) Y = đ?‘Śđ?‘˜ per una opportuna coppia ordinata (h, k). In termini formali posso scrivere che: P( X = đ?‘Ľâ„Ž , Y = đ?‘Śđ?‘˜ ) = f(đ?‘Ľâ„Ž , đ?‘Śđ?‘˜ )< 1.

Anche per le variabili casuali doppie viene definita una funzione cumulata di distribuzione doppia. Detta nuova funzione nel caso di variabili casuali discrete viene definita come segue: F(x,y) = P(X ≤ x, Y ≤ đ?‘Ś) = ∑đ?‘˘â‰¤đ?‘Ľ ∑đ?‘Łâ‰¤đ?‘Ś đ?‘“(đ?‘˘, đ?‘Ł) Di fondamentale importanza e’ il caso di variabili casuali doppie continue.

In questo caso le due variabili casuali X ed Y variano con continuita’. In questo caso la funzione f(x,y) gode delle seguenti due proprieta’:


f(x,y) ≼ 0 +∞

(non negativita’)

+∞

âˆŤâˆ’âˆž âˆŤâˆ’âˆž đ?‘“(đ?‘Ľ, đ?‘Ś)đ?‘‘đ?‘Ľđ?‘‘đ?‘Ś = 1

(normalizzazione)

Il luogo z = f(x, y) e’ comunemente chiamato superficie di probabilita’. Lo strumento operativo utilizzabile in casi del genere e’ sicuramente l’integrale doppio. Per il tramite di esso si puo’ soddisfare un quesito del tipo: quale e’ la probabilita’ che una variabile casuale doppia assuma valori compresi tra ⌋a, bâŚŒ e ⌋c , dâŚŒ per le variabili stocastiche X ed Y continue assegnate. In termini formali posso scrivere che: đ?‘?

đ?‘‘

P(a≤ đ?‘‹ ≤ đ?‘?, đ?‘? ≤ đ?‘Œ ≤ đ?‘‘) =âˆŤđ?‘Ž âˆŤđ?‘? đ?‘“(đ?‘Ľ, đ?‘Ś)đ?‘‘đ?‘Ľđ?‘‘đ?‘Ś Esso e’ ad esempio riscrivibile come segue: đ?‘?

đ?‘‘

âˆŤđ?‘Ž âŚ‹âˆŤđ?‘? đ?‘“(đ?‘Ľ, đ?‘Ś)đ?‘‘đ?‘ŚâŚŒđ?‘‘đ?‘Ľ


38. Varianza e deviazione standard Deve essere ora definita la varianza Var di una variabile casuale X, ovvero la grandezza Var(X). La varianza viene definita dalla seguente formula che abbisogna di una spiegazione. Partiamo dalla formula che e’: Var(X) = E⌋(đ?‘‹ − đ??¸(đ?‘‹))2âŚŒ ≼ 0. A parole si puo’ dire che la varianza Var(X) di una variabile casuale X si ottiene facendo il quadrato della differenza tra X e il suo valore atteso e calcolando quindi il valore atteso. Gli step sono i seguenti:

X → X – E(X) → (đ?‘‹ − đ??¸(đ?‘‹))2 → E⌋(đ?‘‹ − đ??¸(đ?‘‹))2 âŚŒ Sulla grandezza (đ?‘‹ − đ??¸(đ?‘‹))2 si puo’ operare algebricamente avendo che:


(đ?‘‹ − đ??¸(đ?‘‹))2 = đ?‘‹ 2 − 2đ?‘‹đ??¸(đ?‘‹) + đ??¸(đ?‘‹)2 E(đ?‘‹ − đ??¸(đ?‘‹))2 = E( đ?‘‹ 2 − 2đ?‘‹đ??¸(đ?‘‹) + đ??¸(đ?‘‹)2)= E(đ?‘‹ 2 ) − 2đ??¸(đ?‘‹)đ??¸(đ?‘‹) + E(đ??¸(đ?‘‹)2))= E(đ?‘‹ 2 ) − 2(đ??¸(đ?‘‹))2 + đ??¸(đ?‘‹)2 = E(đ?‘‹ 2 ) − (đ??¸(đ?‘‹))2. La varianza gode di proprieta’ notevoli quali le seguenti. Var(cX) = đ?‘? 2 Var(X) , c ∈ R. min E((đ?‘‹ − đ?‘Ž)2 ) per a = E(X). Var (X Âą Y) = Var(X) + Var(Y) In termini formali la varianza indica la misura della dispersione dei valori casuali attorno al valore medio atteso. Vanno considerate le dimostrazioni ed in particolare quella relativa al primo di detti teoremi che do deciso di impostare come segue. Var(cX) = đ?‘? 2 Var(X) , c ∈ R. E’ utile partire dalla definizione di varianza della v.c. X, avendosi che: Var(X) = E⌋(đ?‘‹ − đ??¸(đ?‘‹))2âŚŒ


E’ utilizzabile il teorema per il quale E(X) = m ⇔ E(cX) = cm (m nei passaggi successivi, quando introdotto deve essere considerato allo stregua di una costante, per X data, ovviamente‌.). La varianza della variabile cX, con c numero reale, risulta essere: Var(cX) = E⌋(đ?‘?đ?‘‹ − đ??¸(đ?‘?đ?‘‹))2 âŚŒ = E⌋(đ?‘?đ?‘‹ − đ?‘?đ??¸(đ?‘‹))2 âŚŒ = E⌋đ?‘? 2 đ?‘‹ 2 − 2đ?‘? 2 XE(X) + đ?‘? 2 đ??¸(đ?‘‹)2 âŚŒ = đ?‘? 2 E(đ?‘‹ 2 ) – 2mđ?‘? 2 E(X) + đ?‘? 2 đ??¸(đ?‘‹)2= đ?‘? 2 E(đ?‘‹ 2 ) – 2E(X)đ?‘? 2 E(X) + đ?‘? 2 đ??¸(đ?‘‹)2 = đ?‘? 2 E(đ?‘‹ 2 ) – 2đ?‘? 2 đ??¸(đ?‘‹)2+ đ?‘? 2 đ??¸(đ?‘‹)2 = đ?‘? 2 E(đ?‘‹ 2 ) – đ?‘? 2 đ??¸(đ?‘‹)2 = đ?‘? 2 (E(đ?‘‹ 2 ) – đ??¸(đ?‘‹)2 ) che e’ quanto si intendeva dimostrare. Vorrei osservare che in questi passaggi si utilizza una proprieta’ per la quale: E(E(Y) )= E(Y) Si potrebbe dire, a parole, che la media di una media coincide con la media o che la media di una grandezza costante si identifica con il valore della costante. Si osservi che per una X fisica non necessariamente E(X) coincide con una delle n distinte misurazioni.


Nel caso di variabili aleatorie continue ⌋SpiegelâŚŒ si ha: +∞

E⌋(đ?‘‹ − đ?‘š)2 âŚŒ = âˆŤâˆ’âˆž (đ?‘Ľ − đ?‘š)2 f(x)dx In realta’ questo modo di intendere E(X) vale anche per il caso delle variabili aleatorie discrete, ma l’integrale improprio viene sostituito dalla sommatoria. In formula si ha: E⌋(đ?‘‹ − đ?‘š)2 âŚŒ = ∑đ?‘›đ?‘—=1(đ?‘Ľđ?‘– − đ?‘š )2 f(x) dx In entrambi i casi f(x) e’ la funzione di densita’ di probabilita’.

39. Il concetto di momento e le funzioni generatrice e caratteristica Il concetto di varianza viene poi generalizzato giungendo a quello di momento r-esimo di una v.c. X detto anche momento centrale di ordine r. La formula del momento di ordine r e’ la seguente: đ?‘šđ?‘&#x; = E⌋(đ?‘‹ − đ?‘š)đ?‘&#x; âŚŒ đ?‘ƒđ?‘’đ?‘&#x; le variabili casuali discrete si ha: đ?‘šđ?‘&#x; = ∑(đ?‘‹ − đ?‘š)đ?‘&#x; f(x)


Relativamente alle variabili aleatorie continue si puo’ scrivere: +∞

đ?‘šđ?‘&#x; = âˆŤâˆ’âˆž (đ?‘Ľ − đ?‘š)đ?‘&#x; f(x)dx đ?‘‰đ?‘Ž quindi data la definizione di funzione generatrice dei momenti che viene definita come segue: đ?‘€đ?‘‹ (t) = E(đ?‘’ đ?‘Ąđ?‘‹ ) Per le variabili casuali discrete si ha: đ?‘€đ?‘‹ (t) = ∑ đ?‘’ đ?‘Ąđ?‘Ľđ?‘– f(đ?‘Ľđ?‘– ) Mentre per le variabili casuali continue si ha: +∞

đ?‘€đ?‘‹ (t) = âˆŤâˆ’âˆž đ?‘’ đ?‘Ąđ?‘Ľ f(x) đ??´ questo punto e’ utile introdurre lo sviluppo in serie di Taylor, avendo che: đ?‘Ą2

đ?‘Ąđ?‘&#x;

đ?‘€đ?‘‹ (t) = 1 + mt + đ?‘šâ€˛2 2! +‌‌+đ?‘šâ€˛đ?‘&#x; đ?‘&#x;! đ?‘‘đ?‘&#x;

đ??źđ?‘› essa si definisce đ?‘šâ€˛đ?‘&#x; = đ?‘‘đ?‘Ą đ?‘&#x; đ?‘€đ?‘‹ (đ?‘Ą)|đ?‘Ą=0 đ?‘œđ?‘Łđ?‘Łđ?‘’đ?‘&#x;đ?‘œ ci si riferisce alla derivata r-esima rispetto a t, calcolata per t = 0.


đ?‘ƒđ?‘œđ?‘›đ?‘’đ?‘›đ?‘‘đ?‘œ t = iω ove i e’ l’unjita’ immaginaria si ottiene la funzione caratteristica. Detta funzione risulta essere đ?œ‘đ?‘‹ (ω) = E(đ?‘’ đ?‘–đ?œ”đ?‘‹ ) Per essa sono date le seguenti formule riferite, rispettivamente, al caso di variabili casuali discrete e continue: đ?œ‘đ?‘‹ (ω) = ∑đ?‘›đ?‘—=1 đ?‘’ đ?‘–đ?œ”đ?‘Ľđ?‘— f(đ?‘Ľđ?‘— ) +∞

đ?œ‘đ?‘‹ (ω) = âˆŤâˆ’âˆž đ?‘’ đ?‘–đ?œ”đ?‘Ľ f(x)dx f(x) e’ la funzione di densita’. Si tratta della trasformata di Fourier di f(x). Come noto la trasformata inversa e’: 1

+∞

f(x) = 2đ?œ‹ âˆŤâˆ’âˆž đ?‘’ −đ?‘–đ?œ”đ?‘Ľ đ?œ‘đ?‘Ľ (đ?œ”)dω All’analisi di Fourier sara’ dedicato uno dei prossimi numeri di Appunti matematici.


40. Covarianza Date due variabili casuali continue X ed Y e data la funzione di densita’ doppia f(x, y) viene definita la covarianza in termini formali come segue: đ?œŽđ?‘‹đ?‘Œ = Cov (X, Y) = E⌋(X−đ?‘šđ?‘‹ )(Y−đ?‘šđ?‘Œ )âŚŒ đ?‘ đ?‘’đ?‘™ caso assai rilevante di variabili casuali continue la covarianza viene cosi’ definita: +∞

+∞

đ?œŽđ?‘‹đ?‘Œ = âˆŤâˆ’âˆž âˆŤâˆ’âˆž (đ?‘Ľ − đ?‘šđ?‘Ľ )(y −đ?‘šđ?‘Ś ) f(x,y) dx dy đ??´ questo punto va introdotto il coefficiente di correlazione. Nel caso si variabili casuali indipendenti si ha Cov(X, Y) = 0. Nel caso di variabili completamente dipendenti si ha Cov(X, Y)= đ?œŽđ?‘Ľ đ?œŽđ?‘Ś . Fuori dai casi particolari considerati viene introdotto il coefficiente di correlazione che e’ una grandezza adimensionata definito dalla seguente relazione: đ?œŽđ?‘Ľđ?‘Ś

−1 ≤ đ?œŒ = đ?œŽ

đ?‘Ľ đ?œŽđ?‘Ś

≤ +1

đ?‘ đ?‘’đ?‘™ caso đ?œŒ = 0 si dice che le variabili casuali sono incorrelate.


41. Diseguaglianza di ÄŒebyĹĄev Data una variabile casuale X di valore medio m e di varianza đ?œŽ 2 finite per ogni valore positivo qualunque đ?œ€ si ha che:

P(|X−m|) ≼ đ?œ– ) ≤

đ?œŽ2 đ?œ€2

Solitamente di considera un k per il quale đ?œ€ = kĎƒ.

42. Alcuni semplici esercizi Ho rielaborato e riformulato questi semplici esercizi partendo da quelli piu’ semplici tratti da un noto eserciziario ⌋SpiegelâŚŒ.

Calcolo di valori attesi Data una v.c.X i cui valori e le corrispondenti probabilita’ sono date dalle coppie 1

1

1

(−đ?›ź, đ?‘Ž ) , (đ?›˝, đ?‘?) , (đ?›ž, đ?‘? ) 1

1

1

Deve essere đ?‘Ž + đ?‘? + đ?‘? = 1


Il valore atteso risulta essere: 1

1

1

E(X)= ∑ đ?‘Ľđ?‘– đ?‘?đ?‘– = −đ?›ź đ?‘Ž +đ?›˝ đ?‘? + đ?›ž đ?‘?

Si richiede di calcolare E(2X +4 ) In questo caso si puo’ fare la seguente serie di passaggi: 1

1

1

E(2X +4 ) = E(2X) + E(4) = 2E(X) + E(4) = 2(−đ?›ź đ?‘Ž +đ?›˝ đ?‘? + đ?›ž đ?‘? ) +4 Quanto al calcolo di E(đ?‘‹ 2 ) va osservato che E(đ?‘‹ 2 ) ≠( đ??¸(đ?‘‹))2 . Ma semplicemente si ha: 1

1

1

E(đ?‘‹ 2 ) = (−đ?›ź)2 đ?‘Ž +đ?›˝ 2 đ?‘? + đ?›ž 2 đ?‘?

Data una v.c. continua la cui funzione di densita’ vale f(x) = ađ?‘Ľ 2 per x âˆˆâŚ‹0 , 1âŚŒ e f(x) identicamente nulla altrove. Per i dati del problema si ha: 1

1

đ?‘Ľ4

E(X) = âˆŤ0 đ?‘Ľđ?‘Žđ?‘Ľ 2 dx = đ?‘Ž âˆŤ0 đ?‘Ľ 3 dx = a( 4 |10 ) = a(

14 4

0

-4)= đ?‘Ž

đ?‘Ž 4

Il calcolo di E(3X-2) = E(3X)- E(2) = 3E(X)- E(2) = 34 -2


Il calcolo di E(đ?‘‹ 2 ) si ha con il seguente integrale definito: 1

1

đ?‘Ľ5

E(đ?‘‹ 2 ) = âˆŤ0 đ?‘Ľ 2 đ?‘Žđ?‘Ľ 2 dx = đ?‘Ž âˆŤ0 đ?‘Ľ 4 dx = a( 5 |10 ) = a(

15 5

0

đ?‘Ž

-5)=5

In generale sarebbe: đ?‘Ž

E(đ?‘‹ đ?‘› ) = đ?‘›+3

Calcolo di E(X) e di E(Y) quando sono date due vv.cc. continue X ed Y di cui e’ data la funzione di densita’ doppia f(x, y). Si consideri, ad esempio, il caso f(x, y) = đ?›źx(x+y) con a ≤ x ≤ b e 0 ≤ y ≤ c e f(x,y) identicamente nulla altrove. Per i dati del problema posso scrivere: đ?‘?

đ?‘?

E(X) = âˆŤđ?‘Ž (âˆŤ0 đ?‘Ľ đ?›ź x(x+y) dy) dx đ?‘?

Si puo’ partire dall’inegrale piu’ interno ovvero da âˆŤ0 đ?‘Ľ đ?›źx(x+y) dy nel quale la x deve essere considerata alla stregua di una costante avendosi che:


đ?‘?

đ?‘?

đ?‘?

âˆŤ0 đ?‘Ľ đ?›źx(x+y) dy = âˆŤ0 đ?‘Ľ đ?›źxx dy âˆŤ0 đ?‘Žđ?‘Ľđ?‘Śđ?‘‘đ?‘Ś = đ?‘Žđ?‘Ľ 3 c+ađ?‘Ľ 2

đ?‘?2 2

La funzione ottenuta puo’ essere intercalata avendo che: đ?‘?2

đ?‘?

E(X) = âˆŤđ?‘Ž (đ?‘Žđ?‘Ľ 3 đ?‘? + đ?‘Žđ?‘Ľ 2 2 )dx che e’ un integrale calcolabile elementarmente. Ove si dovesse calcolare E(Y) si dovrebbe partire dal seguente integrale doppio: đ?‘?

đ?‘?

E(X) = âˆŤđ?‘Ž (âˆŤ0 đ?‘Ś đ?›źx(x+y) dy) dx

Calcolo di una varianza Nel caso della varianza Var(X) di una variabile casuale continua e’ bene partire dalla formula Var(X) = E(đ?‘‹ 2 ) − (đ??¸(đ?‘‹))2. Un esempio banale e’ il seguente. Calcolare la varianza di una variabile casuale la cui funzione di densita’ e’ la funzione f(x) =

1 đ?‘Ž

per |x| ≤ b


Per questi casi particolari deve osservarsi che in generale risulta: đ?‘?

1

1 đ?‘Ľ đ?‘›+1

E(đ?‘‹ đ?‘› ) = âˆŤâˆ’đ?‘? đ?‘Ľ đ?‘› đ?‘Ž dx = đ?‘Ž ( đ?‘›+1 |đ?‘?−đ?‘? ) = 0. In definitiva risulta E(đ?‘‹ đ?‘› ) = 0 ∀ n intero. Dal che si desume che la varianza e quindi pure la deviazione standard sono pari allo zero. Si osservi che se l’intervallo non fosse simmetrico rispetto ad x =0 allora in generale sarebbe E(X) ≠0. 1

Ad esempio se la f(x) fosse eguale a đ?‘Ž per 0 ≤ x ≤ r e identicamente nulla fuori da detto intervallo allora sarebbe immediatamente: 1 đ?‘&#x;2

E(X) = đ?‘Ž

2

≠0 etc.

A volte per il calcolo della varianza sono necessari passaggi piu’ articolati, come nel caso seguente, quando e’ data la seguente funzione di densita’: f(x) = đ?‘’ −đ?‘Ľ per x ≼ 0 e f(x) = 0 per x < 0. In questo caso per il calcolo del valore atteso si utilizzano i seguenti integrali: +∞

E(X) = âˆŤ0

đ?‘Ľ đ?‘’ −đ?‘Ľ dx


+∞

E(đ?‘‹ 2 ) âˆŤ0

đ?‘Ľ 2 đ?‘’ −đ?‘Ľ dx

Per il calcolo di integrali del genere puo’ essere utile il metodo della integrazione per parti che si basa sui seguenti presupposti: đ??ˇđ?‘Ľ f(x)g(x) = f(x)đ??ˇđ?‘Ľ g(x) + g(x)đ??ˇđ?‘Ľ f(x) +∞

đ?‘“(đ?‘Ľ)đ?‘”(đ?‘Ľ)|+∞ 0 = âˆŤ0

+∞

đ?‘“(đ?‘Ľ)đ??ˇđ?‘Ľ đ?‘”(đ?‘Ľ) đ?‘‘đ?‘Ľ + âˆŤ0

đ?‘”(đ?‘Ľ)đ??ˇđ?‘Ľ đ?‘“(đ?‘Ľ) đ?‘‘đ?‘Ľ

43. La legge dei grandi numeri Date i variabili casuali indipendenti đ?‘‹đ?‘– pero ognuna delle quali sono finiti il valore atteso e la varianza, đ?‘šđ?‘– đ?‘’ đ?œŽđ?‘–2 . Sia đ?‘†đ?‘› = ∑đ?‘›đ?‘–=1 đ?‘‹đ?‘– Si ha che: đ?‘†

lim P(| đ?‘›đ?‘› – m | ≼ đ?œ€) = 0 đ?‘†đ?‘› đ?‘›

e’ il valore medio di đ?‘†đ?‘› = ∑đ?‘›đ?‘–=1 đ?‘‹đ?‘–


In altri termini, la probabilita’ che il valore medio vari rispetto al valore atteso per una quantita’ reale strettamente positiva qualunque đ?œ€ tende allo zero quando n → +∞. La legge forte dei grandi numeri puo’ essere scritta come segue:

lim

��

đ?‘› →+∞ đ?‘›

= 1 con probabilita’ 1.

44. Distribuzioni speciali di probabilita’ Si considerano solo alcune distribuzioni. 44.1 La distribuzione binomiale o di Bernoulli Le prove bernoulliane sono sempre indipendenti in quanto si caratterizzano per il reimbussolamento o comunque l’esito i-esimo non e’ dipendente dalla sequenza degli (i -1) esimi eventi. Per un evento e’ data una probabilita’ p di successo ed una probabilita’ (1 – p) di insuccesso.


Il matematico Jacob Bernoulli, uno degli iniziatori del calcolo delle probabilita’, dette una risposta al seguente quesito: dire quanto vale la probabilita’ che un evento si verifichi x volte in n prove.

In n prove agli x successi corrisponderebbero (n – x) insuccessi. In termini formali si scrive: đ?‘› P(X=x) = f(x) = ( ) đ?‘? đ?‘Ľ đ?‘ž đ?‘›âˆ’đ?‘Ľ đ?‘Ľ Su questa formula tornero’ con una nota di approfondimento piu’ oltre. Per ora vorrei limitarmi ad un esempio concreto, ovvero al calcolo della probabilita’ che lanciando 6 volte una moneta non truccata si abbiano k esiti Testa. Si osservi che k puo’ assumere i valori k = 1, 2, 3, 4, 5, 6. Il parametro k indica il numero dei possibili successi. 1

Si ammette p = q = 2 (moneta non truccata) Si puo’ formalizzare come segue:


đ?‘› P(X=k) = f(k) = ( ) đ?‘˜ 1

đ?‘›!

1

đ?‘› đ?‘› 1 1 1 đ?‘?đ?‘˜ đ?‘ž đ?‘›âˆ’đ?‘˜ = ( ) ( 2 )đ?‘˜ (2)đ?‘›âˆ’đ?‘˜ = ( ) ( 2 )đ?‘˜+đ?‘›âˆ’đ?‘˜ = đ?‘˜ đ?‘˜

6!

( 2 )đ?‘› (đ?‘›âˆ’đ?‘˜)!đ?‘˜! =( 2 )6 (6−đ?‘˜)!đ?‘˜! Sostituendo in formula i valori 0, 1, ‌. , 6 si ottengono le corrispondenti probabilita’.

In termini di ripartizione, ad esempio la probabilita’ che k ≤ 3, ovvero la probabilita’ che esca in 6 lanci una sola testa, oppure due teste, oppure tre teste sara’: 1

1

P(X≤ k =3) =( 2 )6 6! ∑3đ?‘–=1 (6−đ?‘˜ )!đ?‘˜ ! đ?‘–

đ?‘–

Si potrebbe studiare anche il caso particolare del calcolo della probabilita’ che lanciando una moneta 6 volte si abbiano 0 volte testa, ovvero che on esca mai testa. In questo caso sarebbe: 1

6!

1

P(X=k=0) = f(k=0) =( 2 )6 (6−0)!0! =( 2 )6 1

In n lanci la probabilita’ che non esca mai testa e’ ( 2 )đ?‘› → 0 per n → +∞.


44.2 La distribuzione normale di Gauđ?œˇ La funzione di densita’ della curva gaussiana e’:

1

f(x) = đ?œŽâˆš2đ?œ‹ đ?‘’

−

(đ?‘Ľâˆ’đ?‘š)2 2đ?œŽ2

con |x|≤ ∞. m e’ la media mentre đ?œŽ e’ la deviazione standard. La funzione di ripartizione e’:

1

đ?‘Ľ

F(X) = P(X≤x) = đ?œŽâˆš2đ?œ‹ âˆŤâˆ’âˆž đ?‘’

−

(đ?‘Łâˆ’đ?‘š)2 2đ?œŽ2

dv.

In essa si rende necessario introdurre l’indice muto v. Si dice che una variabile casuale X e’ distribuita normalmente quando essa verifica la relazione F(X) introdotta. Da X distribuita normalmente e’ possibile considerare la corrispondente variabile standardizzata di media 0 e di varianza 1. Essa e’:

Z=

đ?‘‹âˆ’đ?‘š đ?œŽ


44.3 La distribuzione di Poisson (eventi rari) La funzione di densita’ della distribuzione di Poisson e’:

f(x) = P(X = x) =

đ?œ†đ?‘Ľ đ?‘’ −đ?œ† đ?‘Ľ!

Il parametro đ?œ† e’ strettamente positivo. Esso deve essere adimensionato. Si puo’ passare dalla binomiale alla distribuzione di Poisson ponendo nella prima p → 0 (evento raro) ovvero q → 1 (evento complementare dell’evento raro).

44.4 La distribuzione uniforme 1

La funzione di densita’ di essa e’ f(x) = đ?‘?−đ?‘Ž quando x ∈ ⌋a, bâŚŒ e f(x) = 0 per ogni x tale che x âˆ‰âŚ‹a, bâŚŒ.


La rappresentazione grafica di f(x) e’ la seguente:

L’area gialla vale 1. La funzione di distribuzione e’: F(X) = P(X≤ x) = 0 per x <a đ?‘Ľâˆ’đ?‘Ž

F(X) = P(X≤ x) = đ?‘?−đ?‘Ž per x ∈ ⌋a, b) F(X) = P(X≤ x) = 1 per x ≼ b

Il grafico di F(X) e’ il seguente:


44.5. La distribuzione di Maxwell La funzione di densita’ di detta distribuzione e’:

2

f(x) = √đ?œ‹ đ?‘Ž

3â „ 2

đ?‘Ľ2đ?‘’−

đ?‘Žđ?‘Ľ2 2

per x > 0 mentre sara’ f(x) = 0 per x ≤ 0.

44.6 La distribuzione uniforme discreta E’ assegnato un insieme E non vuoto e finito. Una variabile casuale X uniformemente distribuita viene spesso indicata con il seguente formalismo:


X ~ Unif(E) Risulta che ⌋Caravenna, Dei PraâŚŒ i valori assunti dalla variabile casuale X vengono indicati con il formalismo X(Ί). Si parte dalla funzione di densita’ uniforme, non dipendente da x e formalizzata come segue:

đ?‘?đ?‘‹ (đ?‘Ľ) =

1 |đ??¸|

, essendo il denominatore la cardinalita’ di E.

đ??¸đ?‘ đ?‘ đ?‘Ž e’ identicamente vera al variare di x. La conseguente distribuzione e’: |đ??´|

đ?‘€đ?‘‹ (x) = ∑đ?‘Ľâˆˆđ??´ đ?‘?đ?‘‹ (đ?‘Ľ) = |đ??¸| ove A ⊆ E. đ??źđ?‘™ calcolo del valore atteso E(X) e’ immediato in quanto si puo’ scrivere: 1

1 đ?‘›(đ?‘›+1)

đ??¸(đ?‘‹) = ∑đ?‘›đ?‘–=1 đ?‘Ľ đ?‘?đ?‘‹ (đ?‘Ľ) = đ?‘?đ?‘‹ (đ?‘Ľ) ∑đ?‘›đ?‘–=1 đ?‘Ľ = đ?‘› ∑đ?‘›đ?‘–=1 đ?‘Ľ = đ?‘› Si puo’ procedere ulteriormente avendosi che:

2

=

đ?‘›+1 2


1

1

đ?‘›

đ?‘›

đ?‘€đ?‘‹ (t) = E(đ?‘’ đ?‘Ąđ?‘‹ ) =∑ đ?‘’ đ?‘Ąđ?‘Ľ đ?‘?đ?‘Ľ (t) = đ?‘?đ?‘Ľ (t)∑ đ?‘’ đ?‘Ąđ?‘Ľ = ( đ?‘’ đ?‘Ą0 + đ?‘’ đ?‘Ą1 + â‹Ż ‌ + đ?‘’ đ?‘Ąđ?‘› ) = (1 1 đ?‘’ 2đ?‘Ąđ?‘› −1

+ � � +� 2� +‌‌+ � �� ) = �

đ?‘’ đ?‘Ą −1

La funzione caratteristica si ottiene con la sostituzione t → jω, ove j =√−1.

44.7 La distribuzione a due valori Una v.c. e’ detta di Bernoulli a due valori se: X(Ί) = {0, 1} ovvero se essa puo’ assumere due valori discreti, lo 0 e il valore 1, che in logica positiva possono essere intesi come “successoâ€? o “insuccessoâ€?. E’ necessario e sufficiente conoscere uno ed uno soltanto dei due valori đ?‘?đ?‘‹ (1) oppure đ?‘?đ?‘‹ (0). La relazione che li coordina e’ banale, ovvero: đ?‘?đ?‘‹ (1) +đ?‘?đ?‘‹ (0) = 1 Per detta distribuzione risulta đ?‘?đ?‘‹ (Ďƒ) = 0 quando Ďƒ ∈ R / {0 , 1}. Solitamente essa viene definita dal parametro: đ?‘?đ?‘‹ (1) = p < 1.


đ??źđ?‘› questo caso si dice che si ha una distribuzione di Bernoulli di parametro p e si scrive X ~ Be(p).

Il valore atteso e la varianza sono facilmente calcolabili. E(X) = đ?‘?đ?‘‹ (0)0 + đ?‘?đ?‘‹ (1)1 = p Si osservi che: E(X) = E(đ?‘‹ đ?‘› ) ∀n ≼ 2. Infatti 1đ?‘› = 1 identicamente. Con cio’ diventa immediato il calcolo della varianza avendosi che: Var(X) = E(đ?‘‹ 2 ) - (đ??¸(đ?‘‹))2 = p - đ?‘?2 > 0 in quanto |p|< 1. Si puo, infine, passare al calcolo della funzione generatrice dei momenti. đ?‘€đ?‘‹ (t) = E(đ?‘’ đ?‘Ąđ?‘‹ ) = ∑đ?‘–=0,1 đ?‘’ đ?‘Ąđ?‘Ľđ?‘– đ?‘?đ?‘‹ (đ?‘Ľđ?‘– ) = đ?‘’ 1đ?‘Ą đ?‘?đ?‘‹ (1) + đ?‘’ 0đ?‘Ą đ?‘?đ?‘‹ (0) = đ?‘’ đ?‘Ą p + đ?‘’ 0 (1 – p) =đ?‘’ đ?‘Ą p + 1 (1 – p) = đ?‘’ đ?‘Ą p + 1 – p = p(đ?‘’ đ?‘Ą − 1) +1. lim đ?‘Ą

Per t → 0 si ha đ?‘€đ?‘‹ (t) = p(đ?‘’ đ?‘Ąâ†’0 − 1) +1 = p(đ?‘’ 0 − 1) +1 = p(1 - 1 ) +1 = 1.


45. Le distribuzioni quantistiche Si considera un sistema fisico di n particelle che possono assumere r stati distinti.

Solitamente si ipotizza che lo dette particelle costituiscano un sistema in condizioni di equilibrio termico. Si ammette che tutte le configurazioni del sistema siano equiprobabili. Ho rinvenuto ⦋Spiegel⦌ una semplice introduzione (peraltro sotto forma di quesiti, ovvero di esercizi proposti) alle due statistiche quantistiche. Ci si chiede quante particelle assumono il medesimo stato mentre la condizione essenziale della equiprobabilita’ consente di utilizzare lo strumento della probabilita’ uniforme. Si considerano quindi i punti basici delle due statistiche, partendo dalla Bose – Einstein.


La statistica di Bose-Einstein e’ applicabile a particelle elementari a spin intero, dette comunemente bosoni. Il testo citato ⌋SpiegelâŚŒ pone il seguente quesito: in quanti modi r oggetti indistinguibili possono essere collocati in n comparti.

Si dimostra agevolmente che il numero di tali collocamenti, dato r e dato n, e’ semplicemente dato da:

(

đ?‘›+đ?‘&#x; −1 ) đ?‘›

Detto numero ⌋Caravenna, Dei PraâŚŒ e’ la cardinalita’ dell’insieme solitamente indicato con il formalismo đ?›şĚ‚đ?‘›,đ?‘&#x;

La relativa funzione di densita’ sarebbe

1 Ě‚ |đ?›şđ?‘›,đ?‘&#x; |

, risultando ognuna delle possibili

collocazioni come equiprobabile. Con un semplice passaggio risulta agevolmente che: |đ?›şĚ‚đ?‘›,đ?‘&#x; | =

(đ?‘›+đ?‘&#x;−1)! (đ?‘&#x;−1)!đ?‘›!


Il secondo caso ipotizzabile e’ quello che introduce alla statistica di Fermi – Dirac, applicabile alle particelle elementari dette fermioni, aventi spin semintero. Per queste particelle viene introdotta una ulteriore condizione, corrispondente al vigore del principio di esclusione di Pauli.

In ragione di cio’ due particelle non possono essere nello stesso stato. Detta altrimenti, usando la terminologia dell’incasellamento ci si riconduce al caso dell’inserimento di n elementi in r distinti comparti quando r ≼ n per il quale immediatamente di ha: đ?‘&#x; |đ?›şĚ‚ ′đ?‘›,đ?‘&#x; |= ( ) đ?‘› In uno stato puo’ essere presente al piu’ una particella.


APPENDICE Una utile formuletta Nel recente passato ho fatto un piccolo investimento finanziario acquistando quote di un fondo comune di investimento di una prestigiosa e blasonata banca d’affari americana, denominate in US dollars. Poiche’ i dati on line riportano sempre il valore della quota in US $ ho deciso di trovarmi una formuletta molto operativa per calcolare il rendimento di detta attivita’ finanziaria. Gli elementi su cui riflettere sono sostanzialmente i seguenti. Si ha che x euro vengono investiti in un fondo in dollari. Essi divengono y dollari essendo y = y(x, đ?‘?â‚Źâˆ•$ ). đ?‘Ľ

In particolare si ha x = y đ?‘?â‚Źâˆ•$ da cui si ottiene y = đ?‘? . â‚Źâˆ•$

Come il formalismo suggerisce il formalismo đ?‘?â‚Źâˆ•$ indica il cambio euro dollaro e precisamente il numero di euro che vengono scambiati contro un dollaro (incerto per certo).


Poiche’ il tasso di cambio varia ampiamente sara’ opportuno dotare di indice temporale detta grandezza, ad esempio i per iniziale e f per finale. Iniziale e finale si riferiscono ai periodi di acquisto e di vendita delle quote, rispettivamente. Cosi’ impostando si avra’ đ?‘?â‚Źâ „$,đ?‘–

e đ?‘?â‚Źâ „$,đ?‘“ .

Il rendimento in euro dell’investimento sara’ đ?‘Ľđ?‘“ −đ?‘Ľđ?‘– đ?‘Ľđ?‘–

=

đ?‘Ľđ?‘“ đ?‘Ľđ?‘–

-1

đ?‘€đ?‘’đ?‘›đ?‘Ąđ?‘&#x;đ?‘’ đ?‘Ľđ?‘– e’ dato la quantita’ đ?‘Ľđ?‘“ dipende dal valore della quota đ?‘Łđ?‘“,$ e dal tasso di cambio al tempo f, ovvero da đ?‘?â‚Źâ „$,đ?‘“ , quindi formalmente đ?‘Ľđ?‘“ = đ?‘Ľđ?‘“ (đ?‘Łđ?‘“,$ , đ?‘?â‚Źâ „$,đ?‘“ ). In tutto questo si e’ ammesso che solo il numero n delle quote investite sia costante. Per quanto posto si ha che đ?‘Ľđ?‘“ = nđ?‘Łđ?‘“,$ đ?‘?â‚Źâ „$,đ?‘“ Analogamente si puo’ ammettere sia đ?‘Ľđ?‘– = nđ?‘Łđ?‘–,$ đ?‘?â‚Źâ „$,đ?‘– Pertanto il rendimento risulta


r=

đ?‘›đ?‘Łđ?‘“,$ đ?‘?â‚Źâ „$,đ?‘“ đ?‘›đ?‘Łđ?‘–,$ đ?‘?â‚Źâ „$,đ?‘–

−1=

đ?‘Łđ?‘“,$ đ?‘?â‚Źâ „$,đ?‘“ đ?‘Łđ?‘–,$ đ?‘?â‚Źâ „$,đ?‘–

−1

Moltiplicando per 100 si ottiene il rendimento percentuale. Quando f ed i sono tali che il ∆t sia di un anno si ha seccamente un rendimento annuo. Se il ∆t e’ superiore ad un anno si potrebbe, ad esempio, ammettere che sia lineare r(t) ammettendo un rendimento proporzionale al tempo. In realta’ la relazione puo’ essere complicata con una sommatoria ammettendo che vengano effettuati investimenti in periodo distinti da valutare rispetto ad un orizzonte temporale di disinvestimento nel periodo f.


Bibliografia essenziale

Bonomi, Ferrari, Introduzione a Teoria della probabilità e variabili aleatorie, con applicazioni all’ingegneria e alle scienze, Progetto Leonardo, Bologna, 2008.

Caravenna, Dai Pra, Probabilita’. Un’introduzione attraverso modelli e applicazioni. Springer, 2013

Castelnuovo, Calcolo delle probabilita’, Zanichelli, 1933

Spiegel, Probabilita’ e statistica, Etas Libri, 1975

Voci di Wikipedia Calcolo delle probabilita’ đ?œŽ -algebre


PROPRIETA’ LETTERARIA

Questo saggio non ha finalita’ commerciali o lucrative.

Ne e’ autorizzata la divulgazione, anche totale, a condizione che essa non abbia finalita’ commerciali o lucrative purche’ essa avvenga con la citazione dell’autore e del soggetto diffusore dell’opera.




Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.