  <?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>regola empirica &#8211; paologironi blog</title>
	<atom:link href="https://www.gironi.it/blog/tag/regola-empirica-it/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.gironi.it/blog</link>
	<description>Appunti sparsi di (retro) informatica, analisi dei dati, statistica, seo, e cose che cambiano</description>
	<lastBuildDate>Wed, 25 Feb 2026 08:22:26 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>La distribuzione normale</title>
		<link>https://www.gironi.it/blog/la-distribuzione-normale/</link>
					<comments>https://www.gironi.it/blog/la-distribuzione-normale/#respond</comments>
		
		<dc:creator><![CDATA[paolo]]></dc:creator>
		<pubDate>Mon, 29 Oct 2018 14:44:43 +0000</pubDate>
				<category><![CDATA[statistica]]></category>
		<category><![CDATA[chebyshev]]></category>
		<category><![CDATA[gaussiana]]></category>
		<category><![CDATA[regola empirica]]></category>
		<category><![CDATA[standardizzata]]></category>
		<category><![CDATA[z score]]></category>
		<guid isPermaLink="false">https://www.gironi.it/blog/?p=916</guid>

					<description><![CDATA[Il concetto di distribuzione normale è uno degli elementi chiave nel campo delle ricerche statistiche. Molto spesso infatti i dati che raccogliamo mostrano delle caratteristiche tipiche, talmente tipiche da chiamare la distribuzione risultante semplicemente&#8230; &#8220;normale&#8221;.In questo post vedremo le caratteristiche di questa distribuzione, oltre a sfiorare qualche altro concetto di notevole importanza come: Abbiamo visto &#8230; <a href="https://www.gironi.it/blog/la-distribuzione-normale/" class="more-link">Leggi tutto<span class="screen-reader-text"> "La distribuzione normale"</span></a>]]></description>
										<content:encoded><![CDATA[
<p>Il concetto di distribuzione normale è uno degli elementi chiave nel campo delle ricerche statistiche. Molto spesso infatti i dati che raccogliamo mostrano delle caratteristiche tipiche, talmente tipiche da chiamare la distribuzione risultante semplicemente&#8230; &#8220;normale&#8221;.<br>In questo post vedremo le caratteristiche di questa distribuzione, oltre a sfiorare qualche altro concetto di notevole importanza come:</p>



<ul class="wp-block-list">
<li><a href="https://www.gironi.it/blog/la-distribuzione-normale#regolaempirica">la regola empirica</a></li>



<li><a href="https://www.gironi.it/blog/la-distribuzione-normale#zscore">la variabile standardizzata</a>&#8211; Il concetto di Z score</li>



<li><a href="https://www.gironi.it/blog/la-distribuzione-normale#chebishev">la disuguaglianza di Chebishev</a></li>
</ul>



<hr class="wp-block-separator has-css-opacity"/>



<span id="more-916"></span>


				<div class="wp-block-uagb-table-of-contents uagb-toc__align-left uagb-toc__columns-1  uagb-block-30b1fca4      "
					data-scroll= "1"
					data-offset= "30"
					style=""
				>
				<div class="uagb-toc__wrap">
						<div class="uagb-toc__title">
							Di cosa parleremo						</div>
																						<div class="uagb-toc__list-wrap ">
						<ol class="uagb-toc__list"><li class="uagb-toc__list"><a href="#visualizzare-la-normalità-dei-nostri-dati" class="uagb-toc-link__trigger">Visualizzare la &quot;normalità&quot; dei nostri dati</a><li class="uagb-toc__list"><a href="#trasformare-i-dati" class="uagb-toc-link__trigger">Trasformare i dati</a><li class="uagb-toc__list"><a href="#la-regola-empirica" class="uagb-toc-link__trigger">La regola empirica</a><li class="uagb-toc__list"><a href="#standardizzare-è-bello-e-utile-lo-z-score" class="uagb-toc-link__trigger">Standardizzare è bello (e utile&#8230;). Lo Z score.</a><ul class="uagb-toc__list"><li class="uagb-toc__list"><a href="#facciamo-un-esempio-al-volo" class="uagb-toc-link__trigger">Facciamo un esempio al volo</a></li></ul></li><li class="uagb-toc__list"><a href="#e-ora-la-parte-divertente-facciamo-un-po-di-esempi-pratici" class="uagb-toc-link__trigger">E ora la parte divertente: facciamo un po&#039; di esempi pratici!</a><li class="uagb-toc__list"><a href="#la-diseguaglianza-di-chebyshev" class="uagb-toc-link__trigger">La diseguaglianza di Chebyshev</a><ul class="uagb-toc__list"><li class="uagb-toc__list"><a href="#potrebbe-interessarti-anche" class="uagb-toc-link__trigger">Potrebbe interessarti anche</a></ul></ul></ol>					</div>
									</div>
				</div>
			


<hr class="wp-block-separator has-css-opacity"/>



<p>Abbiamo visto in post precedenti esempi di distribuzioni di probabilità per variabili discrete: ad esempio la <a href="https://www.gironi.it/blog/distribuzioni-di-probabilita-distribuzioni-discrete-la-binomiale/">Binomiale</a>, la <a href="https://www.gironi.it/blog/la-distribuzione-geometrica/">Geometrica</a>, la distribuzione di <a href="https://www.gironi.it/blog/la-distribuzione-di-poisson/">Poisson</a>&#8230;</p>



<p>La distribuzione <strong>normale</strong> è una <strong>distribuzione di probabilità continua</strong>; anzi, è la più famosa e la più usata delle distribuzioni di probabilità continue. Ricordiamo al volo che una variabile continua può assumere un numero infinito di valori entro ogni intervallo dato.</p>



<p>La normale ha forma di <strong>campana</strong>, è detta anche <strong>gaussiana</strong> &#8211; dal nome del celebre matematico che ha fornito un contributo fondamentale a questa materia &#8211; ed è <strong>simmetrica rispetto alla sua media</strong>. Si estende indefinitamente in entrambe le direzioni, ma la maggior parte dell&#8217;area &#8211; cioè la probabilità &#8211; è raccolta attorno alla media.<br>La curva appare cambiare di forma in due punti, che chiamiamo <strong>punti di inflessione</strong>, e che coincidono con una <strong>distanza di una deviazione standard in più e in meno della media</strong>.</p>



<p>Genero con due righe in R la caratteristica forma di questa distribuzione:</p>



<figure class="wp-block-image is-resized"><img fetchpriority="high" decoding="async" src="https://www.gironi.it/blog/wp-content/uploads/2018/09/image.png" alt="grafico curva gaussiana o normale" class="wp-image-918" width="647" height="413" srcset="https://www.gironi.it/blog/wp-content/uploads/2018/09/image.png 863w, https://www.gironi.it/blog/wp-content/uploads/2018/09/image-300x192.png 300w" sizes="(max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 984px) 61vw, (max-width: 1362px) 45vw, 600px" /></figure>



<h2 class="wp-block-heading">Visualizzare la &#8220;normalità&#8221; dei nostri dati</h2>



<p>R offre diversi strumenti per valutare lo scostamento di una distribuzione da una normale teorica.</p>



<p>Uno di questi è la funzione <strong>qqnorm()</strong>, che crea un grafico della distribuzione, in funzione dei quantili teorici normali (qq=quantile-quantile):</p>



<pre class="wp-block-preformatted">qqnorm(variabile)
qqline(variabile)
</pre>



<p>Lo verifico con un esempio, generando una distribuzione normale:<br></p>



<pre class="wp-block-preformatted">x&lt;- rnorm(100,5,10)
 qqnorm(x)
 qqline(x)</pre>



<p>il risultato è questo, e come si vede abbiamo la conferma visiva della sostanziale normalità della distribuzione:</p>



<figure class="wp-block-image"><img decoding="async" width="679" height="432" src="https://www.gironi.it/blog/wp-content/uploads/2018/11/qq-plot.png" alt="qq plot" class="wp-image-1114" srcset="https://www.gironi.it/blog/wp-content/uploads/2018/11/qq-plot.png 679w, https://www.gironi.it/blog/wp-content/uploads/2018/11/qq-plot-300x191.png 300w" sizes="(max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 984px) 61vw, (max-width: 1362px) 45vw, 600px" /></figure>



<h2 class="wp-block-heading">Trasformare i dati</h2>



<p>Quando l&#8217;<strong>asimmetria di una distribuzione dipende dal fatto che una variabile si estende su svariati ordini di grandezza</strong>, abbiamo una possibilità agevole per rendere la nostra distribuzione simmetrica e simile ad una normale: <strong>trasformare la variabile nel suo logaritmo</strong>:</p>



<pre class="wp-block-preformatted">qqnorm(log10(variabile))
qqline(log10(variabile))</pre>



<p>ma come calcolo in questo caso la tendenza centrale?<br><br>Se uso qualcosa tipo mean(log10(variabile)) non ho più l&#8217;unità di misura&#8230;<br>Per recuperarla posso usare l&#8217;<strong>antilogaritmo</strong>, cioè calcolo:<br>10^<sup>risultato</sup>.<br>Bisogna però sempre tenere a mente che <strong>questa è la <a href="https://www.gironi.it/blog/statistica-descrittiva-misure-di-posizione/#la-media-geometrica" target="_blank" rel="noreferrer noopener">media geometrica</a></strong>.</p>



<hr class="wp-block-separator has-css-opacity"/>



<p>Bene: abbiamo il nostro set di dati e abbiamo verificato che la distribuzione è ragionevolmente simile a una normale. E&#8217; giunto il momento di trovare delle applicazioni pratiche per mettere a frutto le nostre nuove conoscenze!&nbsp;&nbsp;</p>



<h2 class="wp-block-heading" id="regolaempirica">La regola empirica</h2>



<p>La regola empirica è uno dei pilastri della statistica. Senza addentrarci troppo nei dettagli teorici, il succo è questo:<br><strong>le percentuali dei dati di una distribuzione normale compresi tra 1, 2 e 3 deviazioni standard dalla media sono approssimativamente il 68%, il 95% e il 99,7%.</strong> E&#8217; una regola di tale importanza e uso comune che è meglio riscriverla con maggiore enfasi&#8230;</p>



<figure class="wp-block-pullquote is-style-default has-light-gray-background-color has-background" style="font-style:normal;font-weight:600"><blockquote><p>LA REGOLA EMPIRICA<br>Le percentuali dei dati di una distribuzione normale compresi tra <br>1, 2 e 3 deviazioni standard dalla media <br>sono approssimativamente <br>il 68%, il 95% e il 99,7%.</p></blockquote></figure>



<p></p>



<h2 class="wp-block-heading" id="zscore">Standardizzare è bello (e utile&#8230;). Lo Z score.</h2>



<p>La <strong>distribuzione normale standardizzata</strong> è una distribuzione normale con <strong>media nulla</strong> e <strong>scarto quadratico medio</strong> (o deviazione standard, come dicono gli anglosassoni *)&nbsp;<strong>unitario</strong>. <br><br><em>* nel blog uso i due termini &#8220;scarto quadratico medio&#8221; e &#8220;deviazione standard&#8221; in maniera indifferente&#8230;poichè esprimono lo stesso concetto e sono entrambi di uso comune.</em></p>



<p>Cioè con:</p>



\(
\mu=0 \\
\sigma=1 \\
\)



<p>Qualsiasi distribuzione normale può essere convertita in una distribuzione normale standardizzata, ponendo la media uguale a zero ed esprimendo gli scarti dalla media in unità di scarti quadratici medi, quello che gli anglosassoni molto efficacemente chiamano <em>Z-score</em>.</p>



<p class="has-light-gray-background-color has-background">Uno Z-score misura la distanza che intercorre tra un dato e la media, usando le deviazioni standard. Quindi, uno Z-score può essere positivo (l&#8217;osservazione è sopra la media) o negativo (sotto la media). Uno Z-score di -1 indicherà, ad esempio, che la nostra osservazione cade una deviazione standard al di sotto della media. Ovviamente, uno Z-score pari a 0 equivale alla media.</p>



<p><strong>Lo Z-score è un valore &#8220;puro&#8221;, quindi ci fornisce un &#8220;metro di misura&#8221; di straordinaria efficacia. In pratica, è un indice che mi consente di comparare valori tra diverse distribuzioni (purchè &#8220;normali&#8221;, ovviamente), usando un &#8220;metro&#8221; standard.</strong> <br><br>Il calcolo, come abbiamo visto, è quasi banale: semplicemente <strong>divido la deviazione per lo scarto quadratico medio</strong>:</p>



\(
Z = \frac{Deviazione}{Scarto\ Quadratico\ Medio} \\ \\
\)



<p>In queste condizioni, sappiamo che circa il 68% dell&#8217;area sottostante la curva normale standardizzata è compreso tra 1 scarto quadratico dalla media, il 95% entro due, il 99.7% entro tre.<br>Cioè:</p>



\(
68.26\% \ entro\  \mu \pm \sigma \\
95.4\% \ entro\  \mu \pm 2\sigma \\
99.74\% \ entro\  \mu \pm 3\sigma \\
\\
\)



<p>Per trovare le probabilità &#8211; cioè le aree &#8211; per i problemi che implicano la distribuzione normale, si converte il valore X nel corrispondente Z-score:</p>



\(
Z = \frac{X-\mu}{\sigma}  \\
\\
\)



<p>Quindi si cerca il valore di Z nelle tabelle e si trova la probabilità sottostante la curva compresa tra la media e Z.</p>



<p>Sembra difficile? E&#8217; facilissimo, e divertentissimo. E con R, o con la TI-83, è davvero un giochetto da ragazzi!<br>  </p>



<p class="has-light-gray-background-color has-background">L&#8217;importanza dello Z-score risiede anche (e soprattutto) nella sua <strong>estrema utilità pratica</strong>: consente infatti di poter raffrontare utilmente osservazioni tratte da popolazioni con differenti medie e deviazioni standard, usando una scala comune. E&#8217; per questo che il processo si chiama <em>standardizzazione</em>: consente infatti di <strong>comparare osservazioni tra variabili che hanno differenti distribuzioni</strong>. Usando la tabella (o la calcolatrice o il pc) possiamo rapidamente calcolare le probabilità e i percentili, e identificare eventuali valori estremi (<em>outliers)</em>. </p>



<p>Poichè sigma è positivo, Z sarà positivo se X&gt;mu e negativo se X&lt;mu. Il valore di Z rappresenta il numero di deviazioni standard del valore sopra o sotto la media.</p>



<h5 class="wp-block-heading">Facciamo un esempio al volo</h5>



<p>Ho delle osservazioni di un qualche fenomeno che hanno valore medio 65:</p>



\(
\mu = 65 \\
\)



<p>La deviazione standard è 10:</p>



\(
\sigma = 10 \\
\)



<p>E osservo un valore di 81&nbsp;:</p>



\(
X = 81 \\\\
\)



<p>Il valore dello Z-score si calcola in un attimo:</p>



\(
Z= \frac{X &#8211; \mu}{\sigma} = \frac{81 &#8211; 65}{10} = \frac{16}{10} = 1.6
\\
\)



<p>Il valore osservato, su scala standard, cade 1,6 deviazioni standard sopra la media. Per capire dunque quale percentuale di osservazioni risultano sotto al valore osservato, mi basterà prendere la tabella:</p>



<div class="wp-block-uagb-image uagb-block-b287af8d wp-block-uagb-image--layout-default wp-block-uagb-image--effect-static wp-block-uagb-image--align-none"><figure class="wp-block-uagb-image__figure"><img decoding="async" srcset="https://www.gironi.it/blog/wp-content/uploads/2023/02/tabella-z.png " src="https://www.gironi.it/blog/wp-content/uploads/2023/02/tabella-z.png" alt="Tabella Z scores" class="uag-image-2697" width="" height="" title="" loading="lazy"/><figcaption class="uagb-image-caption"><em>la tabella degli Z scores in azione&#8230;</em></figcaption></figure></div>



<p>Come si nota, incrociando il mio valore z: 1,6 al livello dello 0,05 trovo il valore 0,9505, che equivale a dire che il 95,05% dei valori osservati è inferiore a 81.</p>



<p>Ovviamente, avrei potuto ricavare il valore in R senza usare la tabella, semplicemente con:</p>



<pre class="wp-block-preformatted">pnorm(1.6)</pre>



<p>Per chi usa Python:</p>



<pre class="wp-block-preformatted">from scipy.stats import norm

p = norm.cdf(1.6)
print(p)</pre>



<h2 class="wp-block-heading">E ora la parte divertente: facciamo un po&#8217; di esempi pratici!</h2>



<p><strong>Esempio 1</strong></p>



<p>Qual è la probabilità di un evento con Z-score &lt; 2.47 ?</p>



<p>Prendo in mano la <a href="http://www.matapp.unimib.it/~fcaraven/did0607/tavola_normale.pdf" target="_blank" rel="noreferrer noopener">tabella</a> e vedo che 2.47 = 0.9932.</p>



<p>Quindi, il 99.32% dei valori si trova entro 2.47 scarti quadratici medi dalla media.<br><br>Rappresentando graficamente la situazione, quello che mi viene chiesto è di trovare l&#8217;area della superficie grigia, cioè l&#8217;area sottesa dalla curva a sinistra del punto con ascissa Z=2.47:</p>



<figure class="wp-block-image"><img decoding="async" width="679" height="432" src="https://www.gironi.it/blog/wp-content/uploads/2018/10/normale-1.png" alt="normale 1" class="wp-image-1091" srcset="https://www.gironi.it/blog/wp-content/uploads/2018/10/normale-1.png 679w, https://www.gironi.it/blog/wp-content/uploads/2018/10/normale-1-300x191.png 300w" sizes="(max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 984px) 61vw, (max-width: 1362px) 45vw, 600px" /></figure>



<p>In R il calcolo è semplicissimo. Mi basta digitare:</p>



<pre class="wp-block-preformatted">pnorm(2.47)</pre>



<p>La <strong>funzione pnorm() infatti ci consente di ottenere la curva della probabilità cumulativa della normale</strong>. In altri termini, ci consente di calcolare l&#8217;area relativa (ricordando che l&#8217;area totale è 1) sotto la curva, dal valore dato di Z fino a +infinito oppure -infinito.<br><br>Di default, R usa la coda inferiore, cioè trova l&#8217;area da -infinito a Z.<br>Per computare l&#8217;area tra Z e +infinito mi basterà settare lower.tail=FALSE.<br><br></p>



<p><strong>Esempio 2</strong></p>



<p>Qual è la probabilità di un valore Z-score &gt; 1.53 ?</p>



<p>Dalla tabella trovo il valore 0.937, quindi deduco che il 93,7% dei valori sono sotto a Z-score 1.53.<br>Allora, per trovare quanti sono sopra: 100-93.7 = 6.3%</p>



<p>In R mi basta digitare:</p>



<pre class="wp-block-preformatted">1 - pnorm(1.53)</pre>



<p><strong>Esempio 3</strong></p>



<p>Qual è la probabilità di &#8220;pescare&#8221; un valore casuale di meno di 3.65, data una distribuzione normale con media = 5 e deviazione standard = 2.2 ?</p>



<p>Troviamo subito lo Z-score per il valore 3.65:</p>



\(
Z= \frac{3.65 &#8211; 5}{2.2} = \frac{-1.35}{2.2} \simeq -0.61 \\ \\
\)



<p>Cerchiamo questo valore nella tabella: 0.2709. Dunque, ci sono 27.09% probabilità che un valore minore di 3.65 &#8220;esca&#8221; da una selezione casuale con media 5 e deviazione standard 2.2.</p>



<p>Se volessi usare una calcolatrice scientifica, con la  TI83 mi basterebbe digitare:</p>



<pre class="wp-block-preformatted">normalcdf(-1e99,3.65,5,2.2)</pre>



<p>Mentre con una Casio fx mi basterebbe seguire questi passi:</p>



<pre class="wp-block-preformatted">MENU
STAT
DIST
NORM
Ncd
Data: Variable
Lower: -100
Upper: 3.65
sigma: 2.2
mu: 5

EXECUTE</pre>



<p>Il risultato ovviamente è leggermente diverso da quello ricavato dalla tabella, perchè nella tabella ho arrotondato il valore della divisione (3.65-5)/2.2 a -0.61, tralasciando la restante parte decimale&#8230;</p>



<p><strong>Esempio 4 : trovare le probabilità tra 2 Z-scores</strong></p>



<p>Questo è il caso più divertente di tutti. In realtà, basta trovare le 2 probabilità e sottrarre&#8230;</p>



<p>Qual è la probabilità associata con un valore tra Z=1.2 e Z=2.31 ?</p>



<p>Penso alla mia curva normale: prima trovo l&#8217;area a sinistra di Z<sub>2</sub>. Poi trovo l&#8217;area a sinistra di Z<sub>1</sub>. Quindi sottraggo i due valori per ricavare l&#8217;area tra i due, che è la probabilità cercata.</p>



<p>Oppure uso R e scrivo semplicemente:</p>



<pre class="wp-block-preformatted">pnorm(2.31)-pnorm(1.2)</pre>



<p>e il risultato, in questo caso 10.46%, è trovato in un momento!</p>



<p>Un attimo, ma se volessi calcolare il valore di Z a partire da una probabilità cumulativa? Basta usare la funzione inversa di pnorm() che in R è qnorm().<br>Ad esempio, per trovare il valore di Z con un area 0.5, digito:</p>



<pre class="wp-block-preformatted">qnorm(0.5)</pre>



<p>e otterrò il risultato, che chiaramente sarà 0 (la media di una normale standardizzata ha valore 0 e la media divide la normale in due aree uguali&#8230;).</p>



<p>Per chi usa Python il codice è:</p>



<pre class="wp-block-preformatted">from scipy.stats import norm

q = norm.ppf(0.5)
print(q)
</pre>



<h2 class="wp-block-heading" id="chebishev">La diseguaglianza di Chebyshev</h2>



<p>La caratteristica più importante della disuguaglianza di Chebishev è che <strong>si applica ad ogni distribuzione di probabilità di cui siano noti il valore medio e la deviazione standard</strong>.</p>



<p>Avendo a che fare con una distribuzione di tipo ignoto oppure certamente non normale, la diseguaglianza di Chebyshev ci viene in aiuto, affermando che:<br><br>Se assumiamo un valore k reale positivo, la probabilità che la v.c. X abbia un valore compreso tra:</p>



\( \mu \ &#8211; \ k \sigma \ e \ \mu \ + \ k \sigma \\\)



<p>è maggiore di:</p>



\( 1 &#8211; \frac{1}{k^{2}} \\ \)



<p>In altri termini: supponiamo di conoscere la media e la deviazione standard di un insieme di dati, che non seguono una distribuzione normale. Possiamo dire che per ogni valore k &gt;0 almeno una frazione (1-1/k<sup>2</sup>) dei dati cade nell&#8217;intervallo compreso tra :</p>



\( \mu \ &#8211; \ k \sigma \ e \ \mu \ + \ k \sigma \\\)



<p>Come sempre, un esempio è utile a chiarire il tutto. Prendo un dataset di esempio&#8230;i salari medi pagati dalle squadre di baseball USA nel 2016:</p>



<style type="text/css">
	table.tableizer-table {
		font-size: 12px;
		border: 1px solid #CCC; 
		font-family: Arial, Helvetica, sans-serif;
	} 
	.tableizer-table td {
		padding: 4px;
		margin: 3px;
		border: 1px solid #CCC;
	}
	.tableizer-table th {
		background-color: #104E8B; 
		color: #FFF;
		font-weight: bold;
	}
</style>
<table class="tableizer-table">
<thead><tr class="tableizer-firstrow"><th>Team</th><th>Salary ($M)</th></tr></thead><tbody>
 <tr><td>Arizona Diamondbacks</td><td>91,995583</td></tr>
 <tr><td>Atlanta Braves</td><td>77,073541</td></tr>
 <tr><td>Baltimore Orioles</td><td>141,741213</td></tr>
 <tr><td>Boston Red Sox</td><td>198,328678</td></tr>
 <tr><td>Chicago Cubs</td><td>163,805667</td></tr>
 <tr><td>Chicago White Sox</td><td>113,911667</td></tr>
 <tr><td>Cincinnati Reds</td><td>80,905951</td></tr>
 <tr><td>Cleveland Indians</td><td>92,652499</td></tr>
 <tr><td>Colorado Rockies</td><td>103,603571</td></tr>
 <tr><td>Detroit Tigers</td><td>192,3075</td></tr>
 <tr><td>Houston Astros</td><td>89,0625</td></tr>
 <tr><td>Kansas City Royals</td><td>136,564175</td></tr>
 <tr><td>Los Angeles Angels</td><td>160,98619</td></tr>
 <tr><td>Los Angeles Dodgers</td><td>248,321662</td></tr>
 <tr><td>Miami Marlins</td><td>64,02</td></tr>
 <tr><td>Milwaukee Brewers</td><td>51,2</td></tr>
 <tr><td>Minnesota Twins</td><td>99,8125</td></tr>
 <tr><td>New York Mets</td><td>128,413458</td></tr>
 <tr><td>New York Yankees</td><td>221,574999</td></tr>
 <tr><td>Oakland Athletics</td><td>80,613332</td></tr>
 <tr><td>Philadelphia Phillies</td><td>91,616668</td></tr>
 <tr><td>Pittsburgh Pirates</td><td>95,840999</td></tr>
 <tr><td>San Diego Padres</td><td>94,12</td></tr>
 <tr><td>San Francisco Giants</td><td>166,744443</td></tr>
 <tr><td>Seattle Mariners</td><td>139,804258</td></tr>
 <tr><td>St, Louis Cardinals</td><td>143,514</td></tr>
 <tr><td>Tampa Bay Rays</td><td>60,065366</td></tr>
 <tr><td>Texas Rangers</td><td>158,68022</td></tr>
 <tr><td>Toronto Blue Jays</td><td>131,905327</td></tr>
 <tr><td>Washington Nationals</td><td>142,501785</td></tr>
</tbody></table>



<p>La media risulta:&nbsp;125.3896<br>La deviazione standard:&nbsp;48.64039</p>



<p>La disuguaglianza di Chebyshev</p>



\( 1 &#8211; \frac{1}{k^{2}} \\ \)



<p>ci dice che almeno il 55.56% è in questo caso nell’intervallo:</p>



\(
(\mu − 1.5\sigma, \mu + 1.5\sigma)= (52.42902, 198.3502) \\ \\
\)



<div style="height:50px" aria-hidden="true" class="wp-block-spacer"></div>


<!-- internal-links-section -->
<h3>Potrebbe interessarti anche</h3>
<ul>
<li><a href="https://www.gironi.it/blog/teorema-del-limite-centrale/">Il Teorema del Limite Centrale: perché la statistica funziona (anche quando i dati non sono normali)</a></li>
<li><a href="https://www.gironi.it/blog/anomaly-detection/">Anomaly detection: come identificare valori anomali nei dati</a></li>
</ul>]]></content:encoded>
					
					<wfw:commentRss>https://www.gironi.it/blog/la-distribuzione-normale/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
