<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>probability &#8211; paologironi blog</title>
	<atom:link href="https://www.gironi.it/blog/category/probability-it/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.gironi.it/blog</link>
	<description>Appunti sparsi di (retro) informatica, analisi dei dati, statistica, seo, e cose che cambiano</description>
	<lastBuildDate>Wed, 11 Mar 2026 14:43:52 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>Il Metodo Montecarlo spiegato in modo semplice e applicato a casi reali</title>
		<link>https://www.gironi.it/blog/il-metodo-montecarlo/</link>
					<comments>https://www.gironi.it/blog/il-metodo-montecarlo/#respond</comments>
		
		<dc:creator><![CDATA[paolo]]></dc:creator>
		<pubDate>Wed, 29 Mar 2023 19:18:08 +0000</pubDate>
				<category><![CDATA[statistica]]></category>
		<category><![CDATA[probability]]></category>
		<guid isPermaLink="false">https://www.gironi.it/blog/?p=2983</guid>

					<description><![CDATA[Cos&#8217;&#232; il metodo Monte Carlo La storia del metodo Monte Carlo comincia nel modo pi&#249; improbabile: con un matematico a letto che gioca a carte. Nel 1946, Stanis&#322;aw Ulam, matematico polacco in convalescenza dopo un intervento chirurgico, si ritrov&#242; a giocare a solitario per passare il tempo. Da matematico qual era, si chiese: quante probabilit&#224; &#8230; <a href="https://www.gironi.it/blog/il-metodo-montecarlo/" class="more-link">Leggi tutto<span class="screen-reader-text"> "Il Metodo Montecarlo spiegato in modo semplice e applicato a casi reali"</span></a>]]></description>
										<content:encoded><![CDATA[
<h2 class="wp-block-heading">Cos&#8217;&egrave; il metodo Monte Carlo</h2>



<p>La storia del metodo Monte Carlo comincia nel modo pi&ugrave; improbabile: con un matematico a letto che gioca a carte. Nel 1946, <strong>Stanis&#322;aw Ulam</strong>, matematico polacco in convalescenza dopo un intervento chirurgico, si ritrov&ograve; a giocare a solitario per passare il tempo. Da matematico qual era, si chiese: quante probabilit&agrave; ho di vincere una partita?</p>



<p>Il problema, sulla carta, era risolvibile: bastava enumerare tutte le possibili combinazioni di carte e contare quelle favorevoli. In pratica, per&ograve;, il numero di combinazioni era talmente enorme da rendere il calcolo analitico impraticabile. Ulam ebbe allora un&rsquo;intuizione tanto semplice quanto potente: <strong>anzich&eacute; calcolare la probabilit&agrave; esatta, perch&eacute; non simulare centinaia di partite e contare quante volte si vince?</strong></p>



<p>L&rsquo;idea &egrave; disarmante nella sua semplicit&agrave;. Se giochiamo 1.000 partite e ne vinciamo 230, possiamo stimare la probabilit&agrave; di vittoria intorno al 23%. Pi&ugrave; partite simuliamo, pi&ugrave; la stima si avvicina al valore reale. Questo &egrave;, in essenza, il <strong>metodo Monte Carlo</strong>: usare la simulazione casuale per risolvere problemi che sarebbero troppo complessi da affrontare analiticamente.</p>



<p>Ulam condivise l&rsquo;idea con il collega <strong>John von Neumann</strong>, probabilmente il pi&ugrave; brillante matematico del XX secolo, che ne intravide immediatamente il potenziale. Von Neumann cap&igrave; che l&rsquo;<strong>ENIAC</strong> &mdash; uno dei primissimi computer elettronici, che occupava un&rsquo;intera stanza &mdash; poteva eseguire migliaia di simulazioni in tempi ragionevoli. Insieme svilupparono il metodo per un problema ben pi&ugrave; serio del solitario: la <strong>diffusione dei neutroni</strong> nelle bombe atomiche, nell&rsquo;ambito del progetto Manhattan a Los Alamos.</p>



<p>Il nome &ldquo;Monte Carlo&rdquo; fu scelto come nome in codice, un riferimento al celebre <strong>casin&ograve; di Monte Carlo</strong> a Monaco. La leggenda vuole che l&rsquo;ispirazione venisse dallo zio di Ulam, noto giocatore d&rsquo;azzardo. In fondo, il cuore del metodo &egrave; proprio il caso: generare numeri casuali per esplorare spazi di possibilit&agrave; troppo vasti per essere percorsi sistematicamente.</p>



<p>Da quei primi esperimenti nucleari degli anni &rsquo;40, il metodo Monte Carlo si &egrave; diffuso in ogni campo della scienza e dell&rsquo;ingegneria. Oggi &egrave; uno degli strumenti computazionali pi&ugrave; utilizzati al mondo, dalla fisica delle particelle alla finanza, dal rendering cinematografico alla scoperta di nuovi farmaci. Vediamo come funziona.</p>



<h2 class="wp-block-heading">Concetti preliminari di base</h2>



<p>Il fondamento del metodo Monte Carlo poggia su un principio statistico che abbiamo gi&agrave; incontrato in altri articoli: la <strong>legge dei grandi numeri</strong>. In termini semplici, questa legge ci dice che la media di un campione casuale si avvicina alla media della popolazione man mano che il campione cresce. Tradotto nel linguaggio Monte Carlo: <strong>pi&ugrave; simulazioni eseguiamo, pi&ugrave; il risultato sar&agrave; accurato</strong>.</p>



<p>Per eseguire una simulazione Monte Carlo abbiamo bisogno di <strong>numeri casuali</strong>. In realt&agrave;, i computer non generano numeri veramente casuali: utilizzano algoritmi deterministici che producono sequenze di <strong>numeri pseudo-casuali</strong>, con propriet&agrave; statistiche indistinguibili dal caso reale. In R, ad esempio, la funzione <code>runif()</code> genera numeri uniformemente distribuiti tra 0 e 1.</p>



<p>Un aspetto cruciale &egrave; il <strong>tasso di convergenza</strong>. L&rsquo;errore della stima Monte Carlo diminuisce come <strong>1/&radic;n</strong>, dove n &egrave; il numero di simulazioni. Questo significa che per dimezzare l&rsquo;errore dobbiamo quadruplicare le simulazioni; per ottenere una cifra decimale in pi&ugrave; di precisione, servono 100 volte pi&ugrave; iterazioni. Non &egrave; particolarmente efficiente, ma la bellezza del metodo sta nel fatto che <strong>funziona indipendentemente dalla complessit&agrave; del problema</strong>: che il problema abbia 2 o 2.000 variabili, il tasso di convergenza resta lo stesso.</p>



<p>Va sempre tenuto bene a mente: nella pratica quotidiana dobbiamo bilanciare la <strong>precisione desiderata</strong> con le <strong>risorse computazionali disponibili</strong>. Aumentare il numero di simulazioni comporta un costo in termini di tempo di calcolo. Fortunatamente, i computer moderni rendono questo compromesso molto pi&ugrave; favorevole rispetto ai tempi dell&rsquo;ENIAC.</p>



<h2 class="wp-block-heading">Il metodo Monte Carlo in azione</h2>



<p>Vediamo concretamente come si applica il metodo Monte Carlo. Il procedimento si articola in quattro passi fondamentali:</p>



<p><strong>1. Definire il modello.</strong> Per prima cosa, identifichiamo le variabili del problema e le distribuzioni di probabilit&agrave; che le governano. Ad esempio, se vogliamo simulare il rendimento di un investimento, il modello includer&agrave; il rendimento atteso (media) e la volatilit&agrave; (deviazione standard), assumendo tipicamente una distribuzione normale dei rendimenti.</p>



<p><strong>2. Generare scenari casuali.</strong> Utilizzando un generatore di numeri pseudo-casuali, produciamo migliaia di scenari possibili. Ogni scenario rappresenta una &ldquo;storia alternativa&rdquo;: un modo in cui le cose potrebbero andare.</p>



<p><strong>3. Calcolare il risultato per ogni scenario.</strong> Per ciascuno scenario, applichiamo il modello e otteniamo un risultato. Se stiamo simulando un investimento, il risultato sar&agrave; il valore finale del portafoglio.</p>



<p><strong>4. Aggregare i risultati.</strong> Infine, analizziamo l&rsquo;insieme dei risultati: calcoliamo la media, la mediana, i percentili. Questo ci d&agrave; non solo una stima del risultato atteso, ma un&rsquo;intera <strong>distribuzione delle possibilit&agrave;</strong>. Ed &egrave; qui che il Monte Carlo brilla: non ci dice solo &ldquo;quanto probabilmente guadagneremo&rdquo;, ma anche &ldquo;quanto potremmo perdere nel caso peggiore&rdquo;.</p>



<p>Facciamo un esempio al volo per chiarire il concetto della convergenza. Immaginiamo di lanciare una moneta e di voler stimare la probabilit&agrave; che esca testa. Dopo 10 lanci potremmo ottenere 7 teste (70%), una stima molto lontana dal vero 50%. Dopo 100 lanci saremo pi&ugrave; vicini, forse 53%. Dopo 10.000 lanci, la nostra stima sar&agrave; molto vicina al 50%. Questo &egrave; il Monte Carlo in azione: sostituiamo un calcolo teorico con un esperimento ripetuto migliaia di volte.</p>



<p>La potenza del metodo risiede nella sua <strong>flessibilit&agrave;</strong>. Mentre i metodi analitici richiedono formule chiuse (che spesso non esistono per problemi complessi), il Monte Carlo richiede solo di saper simulare il processo. Se riusciamo a scrivere un programma che genera uno scenario, il Monte Carlo ci d&agrave; la distribuzione dei risultati.</p>



<h2 class="wp-block-heading">Esempi pratici: stima di &pi; e portafoglio azionario</h2>



<h3 class="wp-block-heading">Esempio 1: stimare il valore di &pi;</h3>



<p>L&rsquo;esempio pi&ugrave; classico e didatticamente efficace del metodo Monte Carlo &egrave; la <strong>stima del numero &pi;</strong>. L&rsquo;idea &egrave; elegante: consideriamo un quadrato di lato 2 con un cerchio di raggio 1 inscritto al suo interno. L&rsquo;area del quadrato &egrave; 4, l&rsquo;area del cerchio &egrave; &pi;. Se generiamo punti casuali all&rsquo;interno del quadrato, la proporzione di punti che cadono dentro il cerchio sar&agrave; approssimativamente &pi;/4.</p>



<p>Calcoliamo in R con 100.000 punti:</p>



<pre><code class="language-r">set.seed(123)
n &lt;- 100000
x &lt;- runif(n, -1, 1)
y &lt;- runif(n, -1, 1)
inside &lt;- (x^2 + y^2) &lt;= 1
pi_estimate &lt;- 4 * sum(inside) / n
pi_estimate
# [1] 3.13956</code></pre>



<p>Lo stesso in Python:</p>



<pre><code class="language-python">import random
random.seed(123)
n = 100000
inside = sum(1 for _ in range(n)
             if random.uniform(-1, 1)**2 + random.uniform(-1, 1)**2 &lt;= 1)
pi_estimate = 4 * inside / n
print(pi_estimate)
# 3.14268</code></pre>



<p>Con 100.000 punti otteniamo gi&agrave; una stima ragionevole, ma non precisissima: siamo alla seconda cifra decimale. Come dicevamo, per ottenere un&rsquo;altra cifra di precisione servirebbero circa 100 volte pi&ugrave; punti. Sembra difficile? In realt&agrave;, &egrave; davvero un giochetto da ragazzi &mdash; il computer fa tutto il lavoro pesante.</p>



<h3 class="wp-block-heading">Esempio 2: stima del rendimento di un portafoglio azionario</h3>



<p>Passiamo a un esempio pi&ugrave; vicino alla realt&agrave; operativa. Supponiamo di avere un portafoglio composto da tre azioni con le seguenti caratteristiche:</p>



<figure class="wp-block-table"><table class="wp-block-table">
<thead>
<tr><th>Azione</th><th>Rendimento atteso</th><th>Deviazione standard</th><th>Peso nel portafoglio</th></tr>
</thead>
<tbody>
<tr><td>A</td><td>8%</td><td>12%</td><td>40%</td></tr>
<tr><td>B</td><td>10%</td><td>15%</td><td>30%</td></tr>
<tr><td>C</td><td>12%</td><td>18%</td><td>30%</td></tr>
</tbody>
</table></figure>



<p>Vogliamo stimare la probabilit&agrave; che il rendimento del portafoglio superi il 10%. Simuliamo in R con 10.000 scenari:</p>



<pre><code class="language-r">set.seed(42)
sim_A &lt;- rnorm(10000, mean = 0.08, sd = 0.12)
sim_B &lt;- rnorm(10000, mean = 0.10, sd = 0.15)
sim_C &lt;- rnorm(10000, mean = 0.12, sd = 0.18)
sim_portafoglio &lt;- 0.4 * sim_A + 0.3 * sim_B + 0.3 * sim_C
prob_risultato &lt;- mean(sim_portafoglio &gt;= 0.10)
prob_risultato
# [1] 0.4504</code></pre>



<p>Lo stesso in Python:</p>



<pre><code class="language-python">import random
random.seed(42)
n = 10000
count = 0
for _ in range(n):
    a = random.gauss(0.08, 0.12)
    b = random.gauss(0.10, 0.15)
    c = random.gauss(0.12, 0.18)
    ptf = 0.4 * a + 0.3 * b + 0.3 * c
    if ptf &gt;= 0.10:
        count += 1
print(count / n)
# 0.4479</code></pre>



<p>Il risultato ci dice che c&rsquo;&egrave; circa il 45% di probabilit&agrave; di superare il 10% di rendimento. Notiamo come il Monte Carlo ci restituisca non un singolo numero, ma un&rsquo;intera distribuzione: potremmo facilmente calcolare anche il rendimento mediano, il peggior scenario al 5&deg; percentile, la probabilit&agrave; di perdita, e cos&igrave; via.</p>



<h2 class="wp-block-heading">Simulatore Monte Carlo</h2>



<p>Per rendere il concetto ancora pi&ugrave; tangibile, abbiamo costruito un <strong>simulatore interattivo</strong> che applica il metodo Monte Carlo alla previsione del valore futuro di un investimento. Il modello alla base &egrave; il <strong>Geometric Brownian Motion</strong> (GBM), lo stesso utilizzato nel celebre modello di Black-Scholes per il pricing delle opzioni finanziarie.</p>



<p>In termini intuitivi, il prezzo futuro di un asset si calcola come il prezzo corrente moltiplicato per una crescita casuale. La formula &egrave;:</p>



<p style="text-align:center;"><strong>S(t+1) = S(t) &times; exp((&#956; &minus; &#963;&sup2;/2) + &#963; &times; Z)</strong></p>



<p>dove <strong>&#956;</strong> &egrave; il rendimento atteso annuo (la &ldquo;crescita media&rdquo;), <strong>&#963;</strong> &egrave; la volatilit&agrave; (quanto il prezzo oscilla, la nostra misura di incertezza), e <strong>Z</strong> &egrave; un numero casuale con distribuzione normale. Ogni simulazione genera un percorso diverso: alcuni scenari vedranno il portafoglio crescere molto, altri lo vedranno diminuire. L&rsquo;istogramma mostra la distribuzione di tutti i possibili risultati.</p>



<iframe src="https://www.gironi.it/utility/montecarlo-simulatore/" width="100%" height="600" style="border:none;border-radius:12px;" loading="lazy" title="Simulatore Monte Carlo"></iframe>



<h2 class="wp-block-heading">Applicazioni moderne del metodo Monte Carlo</h2>



<p>Dalla fisica nucleare degli anni &rsquo;40, il metodo Monte Carlo si &egrave; diffuso in ambiti che Ulam e von Neumann non avrebbero immaginato. Vediamo le applicazioni pi&ugrave; affascinanti.</p>



<p><strong>Rendering 3D e cinema.</strong> Ogni volta che guardiamo un film Pixar o un blockbuster con effetti speciali, stiamo ammirando il Monte Carlo in azione. La tecnica si chiama <strong>path tracing</strong>: per calcolare il colore di ogni pixel, il software simula milioni di raggi di luce che rimbalzano tra le superfici della scena. Ogni raggio segue un percorso casuale, e la media di migliaia di percorsi produce l&rsquo;immagine fotorealistica che vediamo sullo schermo.</p>



<p><strong>Finanza e gestione del rischio.</strong> Nel mondo finanziario, il Monte Carlo &egrave; onnipresente. Le banche lo usano per calcolare il <strong>Value at Risk</strong> (VaR), ovvero la perdita massima probabile di un portafoglio in un dato orizzonte temporale. &Egrave; lo stesso principio del nostro simulatore, applicato a portafogli con centinaia di asset e correlazioni complesse. Anche il pricing di opzioni esotiche, che non hanno formule chiuse, si basa su simulazioni Monte Carlo.</p>



<p><strong>Scoperta di nuovi farmaci.</strong> Nella ricerca farmaceutica, il Monte Carlo viene utilizzato per simulare il <strong>docking molecolare</strong>: come una molecola candidata si lega a una proteina bersaglio. Simulando milioni di configurazioni spaziali possibili, i ricercatori identificano i composti pi&ugrave; promettenti prima ancora di sintetizzarli in laboratorio, risparmiando anni di sperimentazione.</p>



<p><strong>Modelli climatici.</strong> I modelli che prevedono il cambiamento climatico sono intrinsecamente incerti: dipendono da scenari di emissioni, feedback atmosferici, dinamiche oceaniche. Il Monte Carlo permette di esplorare migliaia di combinazioni di parametri e generare le <strong>bande di incertezza</strong> che vediamo nei rapporti dell&rsquo;IPCC. Non una singola previsione, ma una distribuzione di futuri possibili.</p>



<p><strong>Intelligenza artificiale.</strong> Nel machine learning, una tecnica chiamata <strong>Monte Carlo dropout</strong> usa la simulazione per stimare l&rsquo;incertezza delle previsioni di una rete neurale. E il celebre <strong>AlphaGo</strong> di DeepMind, che nel 2016 sconfisse il campione mondiale di Go, utilizzava il <strong>Monte Carlo Tree Search</strong> (MCTS) per esplorare le mosse possibili in un gioco con pi&ugrave; configurazioni degli atomi nell&rsquo;universo.</p>



<figure class="wp-block-table"><table class="wp-block-table">
<thead>
<tr><th>Campo</th><th>Esempio</th><th>Cosa si simula</th></tr>
</thead>
<tbody>
<tr><td>Cinema/3D</td><td>Path tracing (Pixar)</td><td>Percorsi dei raggi di luce</td></tr>
<tr><td>Finanza</td><td>Value at Risk</td><td>Scenari di mercato</td></tr>
<tr><td>Farmaceutica</td><td>Docking molecolare</td><td>Configurazioni spaziali</td></tr>
<tr><td>Clima</td><td>Modelli IPCC</td><td>Combinazioni di parametri</td></tr>
<tr><td>AI</td><td>AlphaGo (MCTS)</td><td>Mosse possibili</td></tr>
</tbody>
</table></figure>



<h2 class="wp-block-heading">I vantaggi e i limiti del metodo Monte Carlo</h2>



<p>Come ogni strumento statistico, il metodo Monte Carlo ha i suoi punti di forza e i suoi limiti. Vediamoli con onest&agrave;.</p>



<p><strong>Flessibilit&agrave;.</strong> Il vantaggio pi&ugrave; grande &egrave; la versatilit&agrave;: il Monte Carlo si applica a problemi complessi di qualsiasi dimensione e in qualsiasi campo, dalla finanza all&rsquo;ingegneria, dalla fisica alla biologia. Non richiede formule chiuse, solo la capacit&agrave; di simulare il processo.</p>



<p><strong>Accuratezza.</strong> Con un numero sufficiente di simulazioni, la stima pu&ograve; essere resa arbitrariamente precisa. Pi&ugrave; eseguiamo il metodo, pi&ugrave; il risultato converge al valore reale.</p>



<p><strong>Scalabilit&agrave;.</strong> Diversamente dai metodi a griglia, che soffrono della &ldquo;maledizione della dimensionalit&agrave;&rdquo; (il costo esplode con il numero di variabili), il Monte Carlo mantiene lo stesso tasso di convergenza indipendentemente dal numero di dimensioni. Questo lo rende l&rsquo;unico strumento praticabile per problemi con molte variabili.</p>



<p>Tuttavia, va tenuto bene a mente che il metodo presenta anche <strong>limiti significativi</strong>:</p>



<p><strong>Convergenza lenta.</strong> Il tasso 1/&radic;n significa che per guadagnare una cifra di precisione servono 100 volte pi&ugrave; simulazioni. Per problemi che richiedono altissima precisione, questo pu&ograve; essere proibitivo.</p>



<p><strong>Costo computazionale.</strong> Per problemi complessi (molte variabili, modelli pesanti), ogni singola simulazione pu&ograve; richiedere tempo significativo. Moltiplicato per migliaia o milioni di iterazioni, il costo diventa considerevole.</p>



<p>Per mitigare questi limiti, negli anni sono state sviluppate <strong>tecniche di riduzione della varianza</strong> che permettono di ottenere risultati pi&ugrave; precisi con meno simulazioni:</p>



<ul class="wp-block-list">
<li><strong>Importance sampling</strong>: campionare da una distribuzione alternativa che &ldquo;concentra&rdquo; le simulazioni nelle regioni pi&ugrave; informative.</li>
<li><strong>Control variates</strong>: utilizzare una variabile correlata di cui conosciamo il valore atteso per ridurre la varianza della stima.</li>
<li><strong>Stratified sampling</strong>: suddividere lo spazio in sottogruppi omogenei e campionare da ciascuno.</li>
<li><strong>Antithetic variates</strong>: sfruttare coppie di numeri casuali negativamente correlati per ridurre la varianza.</li>
</ul>



<p>Il metodo Monte Carlo rappresenta uno degli strumenti pi&ugrave; potenti della statistica computazionale. Nei prossimi articoli vedremo come alcune di queste tecniche &mdash; in particolare il <strong>bootstrap</strong>, che del Monte Carlo &egrave; parente stretto &mdash; si applicano a problemi concreti di inferenza statistica.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<h3 class="wp-block-heading">Per approfondire</h3>



<p>Se si desidera approfondire il metodo Monte Carlo e le sue applicazioni nel mondo finanziario, <a href="https://www.amazon.it/dp/1441915753?tag=consulenzeinf-21" rel="nofollow sponsored noopener" target="_blank"><em>Monte Carlo Methods in Financial Engineering</em></a> di Paul Glasserman &egrave; il riferimento pi&ugrave; completo: copre dalla teoria alla pratica con esempi dettagliati nel pricing di derivati e nella gestione del rischio.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.gironi.it/blog/il-metodo-montecarlo/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>La Distribuzione Beta spiegata semplice</title>
		<link>https://www.gironi.it/blog/la-distribuzione-beta-spiegata-semplice/</link>
					<comments>https://www.gironi.it/blog/la-distribuzione-beta-spiegata-semplice/#respond</comments>
		
		<dc:creator><![CDATA[paolo]]></dc:creator>
		<pubDate>Wed, 05 Jan 2022 10:47:25 +0000</pubDate>
				<category><![CDATA[probability]]></category>
		<category><![CDATA[statistica]]></category>
		<category><![CDATA[bayes]]></category>
		<category><![CDATA[beta]]></category>
		<guid isPermaLink="false">https://www.gironi.it/blog/?p=2429</guid>

					<description><![CDATA[La distribuzione Beta è una distribuzione di probabilità molto importante nell&#8217;ambito della statistica bayesiana. Nei problemi teorici riguardo al calcolo delle probabilità, conosciamo il valore esatto della probabilità di un singolo evento, ed è dunque relativamente agevole applicare le regole di base del calcolo probabilistico per giungere al risultato cercato. Nella vita reale, tuttavia, è &#8230; <a href="https://www.gironi.it/blog/la-distribuzione-beta-spiegata-semplice/" class="more-link">Leggi tutto<span class="screen-reader-text"> "La Distribuzione Beta spiegata semplice"</span></a>]]></description>
										<content:encoded><![CDATA[
<p>La distribuzione Beta è una distribuzione di probabilità molto importante nell&#8217;ambito della <a href="https://it.wikipedia.org/wiki/Statistica_bayesiana" target="_blank" rel="noreferrer noopener">statistica bayesiana</a>.           </p>



<p>Nei problemi teorici riguardo al calcolo delle probabilità, conosciamo il valore esatto della probabilità di un singolo evento, ed è dunque relativamente agevole applicare le regole di base del calcolo probabilistico per giungere  al risultato cercato.           </p>



<p><strong>Nella vita reale, tuttavia, è assai più comune avere a che fare con raccolte di osservazioni, ed è a partire da quei dati che dobbiamo ricavare stime di probabilità</strong>.            </p>



<span id="more-2429"></span>



<p>Detto più chiaramente: nella vita non abbiamo quasi mai a disposizione il valore esatto di probabilità di un evento: abbiamo piuttosto dati e osservazioni.<br>Ricavare le probabilità a partire da dati osservati è ciò che chiamiamo <strong>inferenza statistica</strong>.</p>



<p><strong>Beta è una distribuzione di valori continui</strong>, e in questo è differente dalla <a href="https://www.gironi.it/blog/distribuzioni-di-probabilita-distribuzioni-discrete-la-binomiale/" data-type="post" data-id="807"><strong>binomiale</strong></a>, che come abbiamo visto presenta valori discreti. </p>



<p>La definiamo tramite una <strong>funzione di densità di probabilità</strong> (<strong>PDF</strong>): (<em>no, non è il noto formato ideato da Adobe&#8230;</em>)           </p>



\(
Beta(p;\alpha,\beta)=\frac{p^{\alpha-1} \times (1-p)^{\beta-1}}{beta(\alpha;\beta)} \\\
\)



<p>dove           </p>



<p><em>p</em> = è la probabilità di un evento           <br>α = quante volte osserviamo l&#8217;evento di nostro interesse <br>β = quante volte l&#8217;elemento di interesse NON accade<br>e ovviamente:           <br>α + β = numero di tentativi</p>



<p>la funzione beta (non il valore β) al denominatore serve a <strong>normalizzare il risultato</strong> (che sarà compreso dunque tra 0 e 1). <br>Si ricava attraverso l&#8217;integrazione numerica, dal momento che la distribuzione è continua.</p>



<p><strong>La distribuzione Beta è una distribuzione di probabilità sulle probabilità</strong>, e dal momento che modella una probabilità, il suo dominio è limitato tra 0 e 1 .          </p>



<div class="wp-block-uagb-image alignleft uagb-block-f113a5f9 wp-block-uagb-image--layout-default wp-block-uagb-image--effect-static wp-block-uagb-image--align-left"><figure class="wp-block-uagb-image__figure"><img decoding="async" srcset="https://www.gironi.it/blog/wp-content/uploads/2023/03/bayes.jpg " src="https://www.gironi.it/blog/wp-content/uploads/2023/03/bayes.jpg" alt="Immagine di fantasia di Thomas Bayes che lavora alla distribuzione beta" class="uag-image-2911" title="" loading="lazy"/></figure></div>



<h2 class="wp-block-heading">Facciamo un esempio pratico sulla distribuzione beta, usando R</h2>



<p>Immaginiamo che l&#8217;organizzatore di un gioco online affermi che almeno 1 giocatore ogni 10 vinca un premio. Abbiamo a disposizione i dati, e sappiamo che tra gli ultimi 800 giocatori, ci sono stati 65 vincitori. </p>



<p>La domanda che ci poniamo è: l&#8217;organizzatore del gioco afferma il vero in base ai dati in nostro possesso? Basandoci sul nostro campione possiamo ritenere che un giocatore abbia almeno il 10% di probabilità di vincere un premio acquistando un biglietto?</p>



<p>La soluzione al nostro quesito è facilmente ricavabile usando la funzione beta con i dati in nostro possesso:</p>



<p>Usiamo infatti la distribuzione beta cumulativa :           <br>β (.1, 65, 735, TRUE)          </p>



<p>In R basta una riga per trovare la parte della nostra funzione che si trova tra 0.1 e 1, cioè che mostra le probabilità superiori al 10% di vincere un premio acquistando un biglietto:</p>



<pre id="rstudio_console_output" class="wp-block-preformatted">integrate(function(x) dbeta(x,65,735),0.1,1)

0.03170546 with absolute error &lt; 2.3e-06</pre>



<p>           </p>



<p>La risposta è davanti ai nostri occhi. La probabilità di avere almeno il 10% di successo è appena del 3,17%. Ciò che afferma l&#8217;organizzatore del gioco, alla luce dei dati, è falso.</p>



<h2 class="wp-block-heading">Risorse online autorevoli per approfondire</h2>



<ul class="wp-block-list">
<li><a href="https://towardsdatascience.com/beta-distribution-simply-explained-839b3acde6e9" target="_blank" rel="noreferrer noopener">Beta Distribution, Simply Explained &#8211; Towards Data Science</a></li>



<li><a href="https://www.geeksforgeeks.org/beta-distribution-in-r/" target="_blank" rel="noreferrer noopener">Beta Distribution in R &#8211; GeeksforGeeks</a></li>



<li><a href="https://towardsdatascience.com/beta-distribution-intuition-examples-and-derivation-cf00f4db57af" target="_blank" rel="noreferrer noopener">Beta Distribution — Intuition, Examples, and Derivation &#8211; Towards Data Science</a></li>



<li><a href="https://statisticsbyjim.com/probability/beta-distribution/" target="_blank" rel="noreferrer noopener">Beta Distribution: Uses, Parameters &amp; Examples &#8211; Statistics By Jim</a></li>
</ul>


<!-- internal-links-section -->
<h3>Potrebbe interessarti anche</h3>
<ul>
<li><a href="https://www.gironi.it/blog/statistica-bayesiana/">Statistica bayesiana: come imparare dai dati, un passo alla volta</a></li>
</ul>]]></content:encoded>
					
					<wfw:commentRss>https://www.gironi.it/blog/la-distribuzione-beta-spiegata-semplice/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
