di Sergio Mauri
Gli assiomi di Kolmogorov (1934).
A1: probabilità minima.
p(a) >= 0, le probabilità di qualsiasi enunciato non sono (non possono essere) negative. Possono anche essere 0, ma non negative.
A2: probabilità di una verità logica.
p(a) = 1, se a è una verità logica, la probabilità di a = 1. Uno è la probabilità massima[1]. In Kolmogorov ciò viene dedotto da un teorema.
A3: additività.
Se a e b sono incompatibili, allora p(a V b) = p(a) + p(b) (vale solo per gli enunciati incompatibili).
Nei casi di non incompatibilità la probabilità non sarà una somma delle due.
La probabilità assoluta; p(a), a senza metterlo in relazione con altre conoscenze.
Probabilità relativa: p(a|b), IV assioma di Kolmogorov.
A4: probabilità relativa.
𝑝(𝑎|𝑏) ≡ 𝑝(𝑎 ∧ 𝑏)
𝑝(𝑏)
Il V assioma è per il “caso infinito” o “caso continuo”.
a|b –> condizione b p(a|b): probabilità di a dato b } probabilità condizionale
Teoremi sulle probabilità assolute (Teoremi derivati dagli assiomi).
- Probabilità della negazione p(5a) = 1 – p(a)
- Probabilità massima p(a) <= 1
- Probabilità di una falsità logica p(a) = 0
- Probabilità di enunciati equivalenti Se a ⇔ b, allora p(a) = p(b)
- Probabilità di conseguenze logiche Se a ⇒ b, allora p(a) <= p(b)
- Regola di moltiplicazione (i) p(a ∧ b) = p(a) p(b|a); (ii) p(a ∧ b) = p(b) p(a|b)
- Principio di probabilità totale (i) p(a) = p(a ∧ b) + p(a ∧ ¬b); (ii) p(a) = p(b) p(a|b) + p(¬b) p(a|¬b)
- Valore massimo delle probabilità delle congiunzioni p(a ∧ b) ≤ p(a), p(b)
- Relazioni tra probabilità delle disgiunzioni e delle congiunzioni (i) p(a V b) = p(a) + p(b) – p(a ∧ b); (ii) p(a ∧ b) = p(a) + p(b) – p(a V b)
Abbiamo dunque i teoremi delle probabilità relative.
- Probabilità relativa minima p(a|b) >= 0
- Probabilità relativa di una verità logica p(a|b) = 1
- Additività delle probabilità relative Se a e b sono incompatibili, allora p(a V b|c) = p(a|c) + p(b|c)
- Probabilità relativa della negazione p(¬a|b) = 1 – p(a|b)
- Probabilità relativa massima p(a|b) <= 1
- Probabilità relativa di conseguenze logiche Se a ⇒ b allora p(b|a) = 1
- Probabilità di un enunciato dato se stesso p(a|a) = 1
- Probabilità relative di enunciati con probabilità iniziale estrema (i) Se p(a) = 0, allora p(a|b) = 0; (ii) Se p(a) = 1, allora p(a|b) = 1
Il teorema di Bayes.
(i) 𝑝(𝑎|𝑏) = 𝑝(𝑎)𝑝(𝑏|𝑎)
____________________
𝑝(𝑏)
(ii) 𝑝(𝑎|𝑏) = 𝑝(𝑏|𝑎)𝑝(𝑎)
___________________________ useremo questa probabilità
𝑝(𝑎)𝑝(𝑏|𝑎) + 𝑝(¬𝑎)𝑝(𝑏|¬𝑎)
(i) il fatto che le probabilità sulla destra dell’uguale sono calcolate in modo determinato mentre a sinistra no.
(ii) Teorema delle probabilità totale di Bayes.
C’è in entrambe un’analogia col Teorema di Euclide. Certe probabilità relative sono più facili da vedere di quelle assolute. Il Teorema di Bayes è utile laddove abbiamo elementi (tutti) noti.
Epistemologia bayesiana. Si occupa soprattutto della statica e cinematica dell’opinione ovvero della formazione del cambiamento delle opinioni o delle credenze. Da vedere la Belief Change[2]. L’epistemologia bayesiana non ha intenti descrittivi, ma normativi. Norme per l’individuo ideale, prescrizioni per l’individuo concreto.
Le credenze di un soggetto razionale ha diversi gradi di intensità dimostrabili con appropriate probabilità.
Vedremo dunque la probabilità iniziale e la probabilità finale.
[1] Quando parliamo di crescita del 120% o del 400% del PIL, non parliamo di una probabilità, ma di una grandezza. Vedi anche errore della fallacia, Tversky e Kahneman.
[2] Cambiamento delle convinzioni.