  <?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>errore &#8211; paologironi blog</title>
	<atom:link href="https://www.gironi.it/blog/tag/errore-it/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.gironi.it/blog</link>
	<description>Appunti sparsi di (retro) informatica, analisi dei dati, statistica, seo, e cose che cambiano</description>
	<lastBuildDate>Fri, 20 Sep 2024 12:56:41 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>Multicollinearità, eteroschedasticità, autocorrelazione: tre concetti dai nomi difficili (spiegati semplici)</title>
		<link>https://www.gironi.it/blog/multicollinearita-eteroschedasticita-autocorrelazione/</link>
					<comments>https://www.gironi.it/blog/multicollinearita-eteroschedasticita-autocorrelazione/#respond</comments>
		
		<dc:creator><![CDATA[paolo]]></dc:creator>
		<pubDate>Sun, 17 Oct 2021 16:35:46 +0000</pubDate>
				<category><![CDATA[statistica]]></category>
		<category><![CDATA[autocorrelazione]]></category>
		<category><![CDATA[errore]]></category>
		<category><![CDATA[eteroschedasticità]]></category>
		<category><![CDATA[multicollinearità]]></category>
		<category><![CDATA[omoschedasticità]]></category>
		<category><![CDATA[regressione]]></category>
		<category><![CDATA[serie temporali]]></category>
		<guid isPermaLink="false">https://www.gironi.it/blog/?p=2404</guid>

					<description><![CDATA[Nel corso dei vari post, e in particolar in quelli riferiti all&#8217;analisi di regressione, all&#8217;analisi della varianza e alle serie temporali, abbiamo incontrato dei termini che sembrano fatti appositamente per spaventare il lettore. Lo scopo di questi miei articoli è proprio quello di spiegare con semplicità i concetti chiave, al di là dell&#8217;apparente complessità (è &#8230; <a href="https://www.gironi.it/blog/multicollinearita-eteroschedasticita-autocorrelazione/" class="more-link">Leggi tutto<span class="screen-reader-text"> "Multicollinearità, eteroschedasticità, autocorrelazione: tre concetti dai nomi difficili (spiegati semplici)"</span></a>]]></description>
										<content:encoded><![CDATA[
<p>Nel corso dei vari post, e in particolar in quelli riferiti all&#8217;<a href="https://www.gironi.it/blog/lanalisi-di-regressione-multipla-spiegata-semplice/" target="_blank" data-type="post" data-id="2225" rel="noreferrer noopener">analisi di regressione</a>, all&#8217;<a href="https://www.gironi.it/blog/lanalisi-della-varianza-anova-spiegata-semplice/" target="_blank" data-type="post" data-id="2342" rel="noreferrer noopener">analisi della varianza</a> e alle <a href="https://www.gironi.it/blog/analisi-delle-serie-storiche0-e-previsioni-di-serie-temporali-in-r-con-il-metodo-holt-winters/" target="_blank" data-type="post" data-id="1496" rel="noreferrer noopener">serie temporali</a>, abbiamo incontrato dei termini che sembrano fatti appositamente per spaventare il lettore. <br>Lo scopo di questi miei articoli è proprio quello di spiegare con semplicità i concetti chiave, al di là dell&#8217;apparente complessità (è ciò che avrei tanto voluto quando ero studente, anzichè confrontarmi con testi dalla forma volutamente &#8211; e inutilmente &#8211; involuta) . <br>E&#8217; giunto dunque il momento di spendere qualche parola per tre importantissimi concetti che ricorrono assai spesso nelle analisi statistiche, e che dunque devono essere ben compresi. La realtà è molto, molto più chiara rispetto all&#8217;apparente complessità, dunque&#8230; nessuna paura!</p>



<span id="more-2404"></span>


				<div class="wp-block-uagb-table-of-contents uagb-toc__align-left uagb-toc__columns-1  uagb-block-d89388c6      "
					data-scroll= "1"
					data-offset= "30"
					style=""
				>
				<div class="uagb-toc__wrap">
						<div class="uagb-toc__title">
							Di cosa parleremo						</div>
																						<div class="uagb-toc__list-wrap ">
						<ol class="uagb-toc__list"><li class="uagb-toc__list"><a href="#la-multicollinearità" class="uagb-toc-link__trigger">La multicollinearità</a><ul class="uagb-toc__list"><li class="uagb-toc__list"><a href="#come-ridurre-il-problema" class="uagb-toc-link__trigger">Come ridurre il problema?</a></li></ul></li><li class="uagb-toc__list"><a href="#eteroschedasticità" class="uagb-toc-link__trigger">Eteroschedasticità</a><li class="uagb-toc__list"><a href="#autocorrelazione" class="uagb-toc-link__trigger">Autocorrelazione</a><ul class="uagb-toc__list"><li class="uagb-toc__list"><a href="#ma-come-faccio-a-verificare-la-presenza-di-autocorrelazione" class="uagb-toc-link__trigger">Ma come faccio a verificare la presenza di autocorrelazione?</a></ul></ul></ol>					</div>
									</div>
				</div>
			


<h2 class="wp-block-heading">La multicollinearità</h2>



<p>Se mi avete seguito nel corso dei vari post, ricorderete forse che abbiamo citato questo termine approcciando l&#8217;analisi di regressione.</p>



<p class="has-light-gray-background-color has-background">Parliamo di <strong>multicollinearità</strong> quando <strong>esiste una forte correlazione tra due o più variabili esplicative del nostro modello di correlazione</strong>.</p>



<p>Quello della multicollinearità è un problema piuttosto insidioso, perchè può inficiare la validità dell&#8217;analisi di regressione, <strong>pur in presenza di un valore del <a href="https://www.gironi.it/blog/regressione-lineare-semplice/#il-coefficiente-di-determinazione-r2" target="_blank" rel="noreferrer noopener">coefficiente di determinazione</a> R<sup>2</sup>  elevato</strong>, e quindi apparentemente significativo.<br>Se esiste multicollinearità, è difficile isolare l&#8217;effetto che le variabili dipendenti hanno sulla variabile indipendente, e i coefficienti che abbiamo stimato con il metodo dei minimi quadrati possono risultare statisticamente non significanti.</p>



<h5 class="wp-block-heading"><strong>Come ridurre il problema?</strong></h5>



<p>Abbiamo una serie di possibilità:</p>



<ul class="wp-block-list">
<li>Usando una maggior quantità di dati. Cioè ampliando la dimensione del nostro campione.</li>



<li>Trasformando la relazione funzionale.</li>



<li>Utilizzando informazioni a priori.</li>



<li>Escludendo una delle variabili che mostrano di essere fortemente collineari.</li>
</ul>



<h2 class="wp-block-heading">Eteroschedasticità</h2>



<p>Beh, questo termine sembra fatto apposta per spaventare. Se volete rafforzare in qualcuno la convinzione (il pregiudizio) circa l&#8217;intrinseca, spaventosa complessità della statistica, questa è la parola magica da utilizzare! 🙂<br><br>Sorpresa: il concetto, invece, non è poi così complicato. </p>



<p class="has-light-gray-background-color has-background"><strong>Eteroschedasticità</strong> in pratica significa <strong>dispersione ineguale</strong>. <br>Si riferisce al caso in cui la <strong>varianza del termine che costituisce l&#8217;errore non sia costante per tutti i valori della variabile indipendente</strong>. </p>



<p>Nell&#8217;analisi di regressione l&#8217;eteroschedasticità è un problema, perché <strong>la regressione dei minimi quadrati ordinari presuppone che tutti i residui siano tratti da una popolazione che ha una varianza costante (<em>omoschedasticità</em>)</strong>.<br>L&#8217;omoschedasticità è dunque il contrario della eteroschedasticità&#8230;</p>



<p>Ritorniamo per un attimo all&#8217;argomento della regressione: l&#8217;assunzione di eteroschedasticità presuppone che gli errori nelle previsioni di Y siano circa gli stessi, a tutti i livelli di X, in grandezza e dimensione.</p>



<h2 class="wp-block-heading">Autocorrelazione</h2>



<p>Abbiamo parlato di autocorrelazione nel <a href="https://www.gironi.it/blog/analisi-delle-serie-storiche0-e-previsioni-di-serie-temporali-in-r-con-il-metodo-holt-winters/" target="_blank" rel="noreferrer noopener">lungo post sull&#8217;analisi delle serie temporali</a>, vedendo anche un esempio pratico. </p>



<p>Volendo dare una definizione del caso più comune, possiamo dire che</p>



<p class="has-light-gray-background-color has-background">si ha autocorrelazione positiva di primo ordine, allorchè il termine che rappresenta l&#8217;errore di un periodo è correlato positivamente con lo stesso termine del periodo immediatamente precedente.</p>



<p>Nelle serie temporali è uno scenario abbastanza comune e dà luogo a errori tipici di distorsione, con conseguenti risultati di test statistici e intervalli di confidenza scorretti.</p>



<p>L&#8217;autocorrelazione, che è detta anche in alcuni testi <strong>correlazione seriale</strong>, può anche essere di ordine più elevato (è di secondo grado se l&#8217;errore di un periodo è correlato con lo stesso termine di due periodi precedenti, ecc.), ed essere anche negativa.</p>



<h5 class="wp-block-heading">Ma come faccio a verificare la presenza di autocorrelazione?</h5>



<p>Nel mio post sull&#8217;analisi delle serie temporali abbiamo sfruttato la preziosa funzione acf() di R, e parlato del <a href="https://en.wikipedia.org/wiki/Ljung%E2%80%93Box_test" target="_blank" rel="noreferrer noopener">test di Ljung-Box</a>. <br>Un modo &#8220;classico&#8221; di operare, prevede la verifica della presenza di autocorrelazione usando la <a href="https://it.wikipedia.org/wiki/Statistica_di_Durbin-Watson" target="_blank" rel="noreferrer noopener">statistica di Durbin-Watson</a>, computando il valore <em>d</em> e confrontandolo ai valori dell&#8217;apposita tabella al livello di significatività voluto, in genere del 5% o dell&#8217;1%.</p>



<p>In presenza di autocorrelazione le <strong>stime</strong> ottenute con il metodo dei minimi quadrati ordinari sono ancora consistenti e non risultano affette da errore sistemico, ma gli <strong>errori tipici </strong>dei parametri stimati della regressione sono purtroppo interessati da errori sistemici, potendo dare luogo a test statistici e intervalli di confidenza inesatti.</p>



<p>Un metodo per correggere l&#8217;autocorrelazione positiva di primo ordine (la più comune) è dato dal metodo a due stati di Durbin, che non tratteremo in questa sede ma che sarà probabilmente oggetto di un approfondimento futuro.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.gironi.it/blog/multicollinearita-eteroschedasticita-autocorrelazione/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
