  <?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>regressione multipla &#8211; paologironi blog</title>
	<atom:link href="https://www.gironi.it/blog/tag/regressione-multipla-it/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.gironi.it/blog</link>
	<description>Appunti sparsi di (retro) informatica, analisi dei dati, statistica, seo, e cose che cambiano</description>
	<lastBuildDate>Fri, 20 Sep 2024 12:57:02 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>L&#8217;analisi di regressione multipla, spiegata semplice.</title>
		<link>https://www.gironi.it/blog/regressione-multipla-spiegata-semplice/</link>
					<comments>https://www.gironi.it/blog/regressione-multipla-spiegata-semplice/#respond</comments>
		
		<dc:creator><![CDATA[paolo]]></dc:creator>
		<pubDate>Thu, 22 Jul 2021 15:37:11 +0000</pubDate>
				<category><![CDATA[statistica]]></category>
		<category><![CDATA[regressione multipla]]></category>
		<guid isPermaLink="false">https://www.gironi.it/blog/?p=2225</guid>

					<description><![CDATA[I fenomeni cui assistiamo, e che vogliamo studiare per approfondirne la comprensione, raramente si presentano in maniera così semplice da potersi definire attraverso due sole variabili, di cui una predittiva (indipendente) e una responso (dipendente). Per questo, se pure l&#8217;analisi di regressione lineare presenta una fondamentale importanza teorica, nella pratica fornisce poca informazione in più &#8230; <a href="https://www.gironi.it/blog/regressione-multipla-spiegata-semplice/" class="more-link">Leggi tutto<span class="screen-reader-text"> "L&#8217;analisi di regressione multipla, spiegata semplice."</span></a>]]></description>
										<content:encoded><![CDATA[
<p>I fenomeni cui assistiamo, e che vogliamo studiare per approfondirne la comprensione, raramente si presentano in maniera così semplice da potersi definire attraverso due sole variabili, di cui una <strong>predittiva</strong> (<em>indipendente</em>) e una <strong>responso</strong> (<em>dipendente</em>).</p>



<p>Per questo, se pure l&#8217;<a href="https://www.gironi.it/blog/regressione-lineare-semplice/" data-type="post" data-id="1807">analisi di regressione lineare</a> presenta una fondamentale importanza teorica, nella pratica fornisce poca informazione in più rispetto allo studio attraverso il semplice coefficiente di correlazione.</p>



<span id="more-2225"></span>



<p>E&#8217; per questo che in letteratura scientifica è la <strong>regressione multipla</strong> a svolgere un ruolo preponderante, potendo fornire un set completo di strumenti in grado di spiegare la variazione della nostra variabile dipendente per ogni diversa variabile predittiva presente nel modello, e per il complesso delle interazioni delle variabili indipendenti.</p>


				<div class="wp-block-uagb-table-of-contents uagb-toc__align-left uagb-toc__columns-1  uagb-block-6b5b67d3      "
					data-scroll= "1"
					data-offset= "30"
					style=""
				>
				<div class="uagb-toc__wrap">
						<div class="uagb-toc__title">
							Di cosa parleremo						</div>
																						<div class="uagb-toc__list-wrap ">
						<ol class="uagb-toc__list"><li class="uagb-toc__list"><a href="#lequazione-della-regressione-multipla" class="uagb-toc-link__trigger">L&#039;equazione della regressione multipla</a><li class="uagb-toc__list"><a href="#quali-informazioni-posso-ricavare" class="uagb-toc-link__trigger">Quali informazioni posso ricavare?</a><li class="uagb-toc__list"><a href="#un-po-di-requisiti-per-cominciare" class="uagb-toc-link__trigger">Un po&#039; di requisiti per cominciare</a><li class="uagb-toc__list"><a href="#in-pratica-come-procedere" class="uagb-toc-link__trigger">In pratica, come procedere?</a><li class="uagb-toc__list"><a href="#mettiamoci-allopera" class="uagb-toc-link__trigger">Mettiamoci all&#039;opera!</a><li class="uagb-toc__list"><a href="#quanto-è-valido-il-mio-modello" class="uagb-toc-link__trigger">Quanto è valido il mio modello?</a><li class="uagb-toc__list"><a href="#sintesi-finale" class="uagb-toc-link__trigger">Sintesi finale</a><li class="uagb-toc__list"><a href="#risorse-gratuite-per-approfondire" class="uagb-toc-link__trigger">Risorse gratuite per approfondire</a></ol>					</div>
									</div>
				</div>
			


<h2 class="wp-block-heading">L&#8217;equazione della regressione multipla</h2>



<p>Partiamo dall&#8217;equazione di regressione multipla, che ovviamente si presenta come una &#8220;espansione&#8221; di quella della regressione lineare semplice, ed ha questa forma generale:</p>



\(
\\
y = a_1 x_1 + a_2 x_2 + &#8230; + a_i x_i + b
\\
\)



<p>dove <br>y è la variabile responso (n.b. : è <strong>unica</strong>)<br>a<sub>1,</sub>a<sub>2</sub>&#8230;a<sub>i</sub> sono i coefficienti di regressione per le variabili predittive<br>x<sub>1</sub>,x<sub>2</sub>&#8230;x<sub>i</sub> sono le variabili predittive<br>b è l&#8217;intercetta (ed è anch&#8217;essa <strong>unica</strong>)</p>



<h2 class="wp-block-heading">Quali informazioni posso ricavare?</h2>



<p>Posso e devo, in prima istanza, <strong>capire quanto le mie variabili predittive, combinate, siano relate in maniera significativa alla variabile dipendente. E quanta parte del risultato è spiegata dalla combinazione delle variabili predittive usate nel modello</strong>.</p>



<p>Poi devo capire quanto ciascuna variabile predittiva sia legata alla variabile dipendente, mentre controllo l&#8217;altra variabile indipendente (suppongo per semplicità che le variabili predittive siano solo due).</p>



<p>Devo poi capire quale dei miei due predittori sia quello più &#8220;forte&#8221; nello stimare la variabile dipendente.</p>



<p>Queste e molte altre cose possono essere esaminate con gli strumenti messi a disposizione dall&#8217;analisi di regressione multipla e questi primi accenni mostrano già la potenza e l&#8217;utilità pratica di questa tecnica.</p>



<h2 class="wp-block-heading">Un po&#8217; di requisiti per cominciare</h2>



<p>L&#8217;analisi di regressione multipla è una tecnica potente e di ampio utilizzo, ma per poterla utilizzare in maniera corretta è necessario che siano rispettate alcune assunzioni fondamentali:</p>



<ol class="wp-block-list">
<li>La variabile dipendente deve essere misurata su una scala di tipo intervallo o rapporto, e la variabile predittiva deve essere anch&#8217;essa di tipo intervallo/rapporto, oppure dicotomica.</li>



<li>Deve esserci una relazione di tipo lineare tra la variabile predittiva e la variabile dipendente.</li>



<li>Tutte le variabili nell&#8217;analisi di regressione devono presentare una distribuzione di tipo normale.</li>



<li>Le variabili predittive non devono essere strettamente correlate tra loro (si parla di <a href="https://www.gironi.it/blog/multicollinearita-eteroschedasticita-autocorrelazione-tre-concetti-dai-nomi-difficili-spiegati-semplici/" target="_blank" data-type="post" data-id="2404" rel="noreferrer noopener">multicollinearità</a>). Gli errori nella previsione devono essere tra loro indipendenti.</li>



<li>Si assume l&#8217;<a href="https://www.gironi.it/blog/multicollinearita-eteroschedasticita-autocorrelazione-tre-concetti-dai-nomi-difficili-spiegati-semplici/" target="_blank" data-type="post" data-id="2404" rel="noreferrer noopener">eteroschedasticità</a>. Gli errori nella previsione di Y sono cioè circa gli stessi, in grandezza e direzione, a tutti i livelli di X.</li>
</ol>



<h2 class="wp-block-heading">In pratica, come procedere?</h2>



<p>Il mio suggerimento per impratichirsi è quello di procedere per passaggi. Io suggerisco questi:</p>



<ol class="wp-block-list">
<li>Tracciamo i grafici di dispersione (<em>scatterplot</em>) per ogni variabile predittiva rispetto alla variabile responso, per valutare l&#8217;esistenza o meno di correlazione. </li>



<li>Calcoliamo l&#8217;equazione di regressione multipla. </li>



<li>Verifichiamo che siamo rispettate le assunzioni di normalità e omoschedasticità.</li>



<li>Analizziamo il coefficiente di determinazione.</li>
</ol>



<p>Per ognuno di questi passaggi, R si dimostra come di consueto un compagno fidatissimo, capace di fornirci le elaborazioni richieste con pochi comandi.</p>



<h2 class="wp-block-heading">Mettiamoci all&#8217;opera!</h2>



<p>Scaldiamo i motori di R e vediamo un esempio pratico, sia pur semplificando al massimo. Ovviamente, sfioriamo solo la superficie dell&#8217;argomento. Lo scopo infatti è quello di gettare le prime basi per iniziare la navigazione in un argomento sterminato. Starà alla passione di chi legge continuare ad approfondire&#8230;<br><br>Basta con i preamboli: scegliamo un dataset di esempio.<br>R ci fornisce tra gli altri il <em>Longley&#8217;s Economic Regression Data</em>, che userò in questo articolo.<br>Di cosa si tratta? Di un <em>data frame</em> che contiene 7 variabili di tipo economico, dall&#8217;anno 1947 al 1962.</p>



<p>Apriamo R Studio, carichiamo il dataset e diamogli una prima occhiata:</p>



<pre class="wp-block-preformatted">data(longley)
dim(longley)
head(longley)</pre>



<p>Vediamo le varie metriche. Per il nostro esempio, andremo a testare come variabile responso il numero degli occupati, e come variabili predittive indipendenti il GNP (<em>Gross National Product</em>, il prodotto interno lordo) e la popolazione. </p>



<p>Ok, vediamo come si presentano gli scatterplot:<br></p>



<pre class="wp-block-preformatted">plot(longley$Employed, longley$GNP)</pre>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img fetchpriority="high" decoding="async" width="855" height="540" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/impiegati-gnp.png" alt="impiegati gnp" class="wp-image-2240" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/impiegati-gnp.png 855w, https://www.gironi.it/blog/wp-content/uploads/2021/07/impiegati-gnp-300x189.png 300w" sizes="(max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px" /><figcaption class="wp-element-caption">impiegati /prodotto interno lordo</figcaption></figure>
</div>


<pre class="wp-block-preformatted">plot(longley$Employed, longley$Population)</pre>


<div class="wp-block-image">
<figure class="aligncenter size-full is-resized"><img decoding="async" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/impiegati-popolazione.png" alt="Residui regressione multipla" class="wp-image-2241" width="632" height="398" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/impiegati-popolazione.png 855w, https://www.gironi.it/blog/wp-content/uploads/2021/07/impiegati-popolazione-300x189.png 300w" sizes="(max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 984px) 61vw, (max-width: 1362px) 45vw, 600px" /><figcaption class="wp-element-caption">impiegati / popolazione</figcaption></figure>
</div>


<p>La correlazione crescente di tipo lineare appare evidente.  Procediamo con la regressione multipla. Il comando lo conosciamo già: è lm(). La sintassi per più variabili predittive è la seguente:</p>



<pre class="wp-block-preformatted">regressione = lm(Employed ~ GNP + Population, data=longley)
summary(regressione)</pre>



<p>Il risultato è una miniera di informazioni!</p>



<pre class="wp-block-preformatted">Call:
lm(formula = Employed ~ GNP + Population, data = longley)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.80899 -0.33282 -0.02329  0.25895  1.08800 

Coefficients:
            Estimate Std. Error t value Pr(&gt;|t|)    
(Intercept) 88.93880   13.78503   6.452 2.16e-05 ***
GNP          0.06317    0.01065   5.933 4.96e-05 ***
Population  -0.40974    0.15214  -2.693   0.0184 *  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.5459 on 13 degrees of freedom
Multiple R-squared:  0.9791,	Adjusted R-squared:  0.9758 
F-statistic: 303.9 on 2 and 13 DF,  p-value: 1.221e-11</pre>



<p>Notiamo per prima cosa il valore p della Statistica F. E&#8217; un valore molto piccolo (1.211e-11), altamente significante. Quindi, almeno una delle nostre variabili predittive è relata in maniera statisticamente significativa alla variabile risultato. Dunque, procediamo.</p>



<p>Tracciamo anche il grafico dei residui:</p>



<pre class="wp-block-preformatted">plot(longley$Year, summary(regressione)$res, type='o')
abline(h=0, lty=2, col="red", lwd=2)</pre>



<figure class="wp-block-image size-full"><img decoding="async" width="855" height="540" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/res.png" alt="res" class="wp-image-2242" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/res.png 855w, https://www.gironi.it/blog/wp-content/uploads/2021/07/res-300x189.png 300w" sizes="(max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px" /></figure>



<p>Idealmente, la somma dei residui, cioè le differenze tra i valori reali e quelli predetti, dovrebbe tendere a zero, o quantomeno essere la più bassa possibile. Uno sguardo a questa sezione dell&#8217;output del comando summary ci dice che in questo caso la condizione è rispettata:</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img decoding="async" width="377" height="83" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/residuals.png" alt="residuals" class="wp-image-2247" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/residuals.png 377w, https://www.gironi.it/blog/wp-content/uploads/2021/07/residuals-300x66.png 300w" sizes="(max-width: 377px) 85vw, 377px" /><figcaption class="wp-element-caption">la mediana dei residui è vicina allo 0, vero?</figcaption></figure>
</div>


<p>Controlliamo graficamente l&#8217;assunzione di normalità dei residui:</p>



<pre class="wp-block-preformatted">hist(resid(regressione),main='Istogramma dei residui',xlab='Residui Standardizzati',ylab='Frequenza')</pre>



<p>Il grafico che otteniamo ci mostra che l&#8217;assunzione di normalità è rispettata:</p>



<figure class="wp-block-image size-full"><img decoding="async" width="607" height="383" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/istogramma_dei_residui.png" alt="istogramma dei residui" class="wp-image-2291" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/istogramma_dei_residui.png 607w, https://www.gironi.it/blog/wp-content/uploads/2021/07/istogramma_dei_residui-300x189.png 300w" sizes="(max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 984px) 61vw, (max-width: 1362px) 45vw, 600px" /><figcaption class="wp-element-caption">i residui rispettano l&#8217;assunzione di normalità</figcaption></figure>



<p>E&#8217; giunto il momento di andare a vedere in dettaglio cosa ci dice l&#8217;output del comando summary relativo alla nostra regressione.</p>



<p>La mediana è vicina allo 0, i residui sono distribuiti in maniera approssimativamente normale. Quindi possiamo procedere.</p>



<p>I valori dei coefficienti angolari per le nostre due variabili predittive e quello dell&#8217;intercetta li troviamo nel nostro output:</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img decoding="async" width="528" height="155" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/coefficienti.png" alt="coefficienti" class="wp-image-2248" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/coefficienti.png 528w, https://www.gironi.it/blog/wp-content/uploads/2021/07/coefficienti-300x88.png 300w" sizes="(max-width: 528px) 85vw, 528px" /><figcaption class="wp-element-caption">R ci fornisce&#8230;la pappa pronta!</figcaption></figure>
</div>


<p>La retta di regressione è dunque:</p>



\(
\\
y = 0.06317x_1 &#8211; 0.40974 x_2 + 88.9388
\\
\)



<p>Prestiamo attenzione ai valori p per quanto riguarda i coefficienti angolari. L&#8217;output ci dice che le nostre variabili indipendenti sono significative per predire il valore della variabile dipendente. I p-value infatti sono inferiori al valore standard 0.05.  Il prodotto nazionale lordo ha addirittura un valore inferiore al livello  dello 0.001. <strong>Possiamo dunque rigettare l&#8217;ipotesi nulla (le variabili predittive non sono significative) e ritenere valido il nostro modello, notando come il GNP sia l&#8217;elemento più &#8220;fedele&#8221; per la stima rispetto alla popolazione</strong>. Molto utile la rappresentazione con gli asterischi restituita dal nostro output, capace di fornirci subito il colpo d&#8217;occhio del risultato.</p>


<div class="wp-block-image">
<figure class="aligncenter size-full is-resized"><img decoding="async" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/pvalue-1.png" alt="pvalue 1" class="wp-image-2251" width="528" height="156" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/pvalue-1.png 528w, https://www.gironi.it/blog/wp-content/uploads/2021/07/pvalue-1-300x89.png 300w" sizes="(max-width: 528px) 85vw, 528px" /><figcaption class="wp-element-caption">Occhio agli asterischi!</figcaption></figure>
</div>


<p>Possiamo anche chiedere a R il calcolo dell&#8217;intervallo di confidenza per il nostro modello, con il comando:</p>



<pre class="wp-block-preformatted">confint(regressione)</pre>



<p>Nel nostro esempio otterremo questo output:</p>



<pre class="wp-block-preformatted">                  2.5 %       97.5 %
(Intercept) 59.15805807 118.71953854
GNP          0.04017053   0.08617434
Population  -0.73841447  -0.08107138</pre>



<h2 class="wp-block-heading">Quanto è valido il mio modello?</h2>



<p> A questo punto entra in scena un protagonista che abbiamo già incontrato nei precedenti articoli, il <strong>coefficiente di determinazione</strong>, o r<sup>2</sup></p>



<p>E&#8217; proprio lui a dirci una cosa fondamentale, cioè quanto vicini sono i dati alla nostra retta di regressione. In altri termini più pratici, quale percentuale dei &#8220;movimenti&#8221; della variabile dipendente sono spiegati dalle nostre variabili predittive. Il valore è standardizzato tra 0 e 1, ed è superfluo notare come il nostro modello sia tanto più utile quanto più questo valore si avvicina a 1.</p>



<p>R, come al solito formidabile, ci ha già dato in output questo utilissimo valore. Eccolo:</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img decoding="async" width="494" height="24" src="https://www.gironi.it/blog/wp-content/uploads/2021/07/coefficiente_di_determinazione.png" alt="coefficiente di determinazione" class="wp-image-2255" srcset="https://www.gironi.it/blog/wp-content/uploads/2021/07/coefficiente_di_determinazione.png 494w, https://www.gironi.it/blog/wp-content/uploads/2021/07/coefficiente_di_determinazione-300x15.png 300w" sizes="(max-width: 494px) 85vw, 494px" /><figcaption class="wp-element-caption">quando due variabili spiegano tutto&#8230;o quasi!</figcaption></figure>
</div>


<p>Ok, ma cos&#8217;è il valore Adjusted R-squared? E&#8217; il valore da considerare, per superare un paradosso del valore r<sup>2</sup>, che ha un valore sempre crescente al crescere del numero delle variabili (anche se quelle variabili non sono affatto significative).  Il valore r quadro adjusted corregge questa anomalia e restituisce un valore (sempre inferiore a r quadro) perfettamente utilizzabile. </p>



<h2 class="wp-block-heading">Sintesi finale</h2>



<p>Sarò brevissimo: <strong>un valore elevato di r quadrato e un valore molto basso, tendente a zero, dei residui indicano che il modello è buono</strong>.</p>



<p>Non è tutto, anzi è solo l&#8217;inizio. Ma è il primo passo per iniziare a padroneggiare uno strumento, come l&#8217;analisi di regressione lineare multipla, che ha grandissima utilità pratica. Vi lascio, spero, la curiosità di approfondire e andare oltre (e qua sotto alcune utile risorse gratuite online). Buon lavoro!</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<h2 class="wp-block-heading">Risorse gratuite per approfondire</h2>



<ul class="wp-block-list">
<li>Puoi <a href="https://hastie.su.domains/ISLR2/ISLRv2_website.pdf" target="_blank" rel="noopener">scaricare liberamente</a> la seconda edizione dell&#8217;ottimo testo &#8220;An Introduction to Statistical Learning&#8221; di <a href="http://faculty.marshall.usc.edu/gareth-james/" target="_blank" rel="noreferrer noopener"><strong>Gareth James</strong></a> e altri (Springer). E&#8217; un &#8220;robusto&#8221; file pdf di oltre 600 pagine, in lingua inglese.</li>



<li>Puoi consultare gratuitamente il sito &#8220;<a href="http://www.cookbook-r.com/" target="_blank" rel="noreferrer noopener">Cookbook for R</a>&#8220;, che contiene anche sezioni dedicate alle analisi di regressione.</li>



<li>Sul sito <a href="https://www.r-bloggers.com/" target="_blank" rel="noreferrer noopener">R-bloggers</a> potrai trovare articoli e spunti di ogni genere su qualsiasi argomento della statistica e del ML, con esempi e codice R. </li>
</ul>



<div class="wp-block-uagb-icon-list uagb-block-c0703fce"><div class="uagb-icon-list__wrap">
<div class="wp-block-uagb-icon-list-child uagb-block-3b4d8c93"><span class="uagb-icon-list__source-wrap"><svg xmlns="https://www.w3.org/2000/svg" viewBox="0 0 512 512"><path d="M256 0C114.6 0 0 114.6 0 256c0 141.4 114.6 256 256 256s256-114.6 256-256C512 114.6 397.4 0 256 0zM406.6 278.6l-103.1 103.1c-12.5 12.5-32.75 12.5-45.25 0s-12.5-32.75 0-45.25L306.8 288H128C110.3 288 96 273.7 96 256s14.31-32 32-32h178.8l-49.38-49.38c-12.5-12.5-12.5-32.75 0-45.25s32.75-12.5 45.25 0l103.1 103.1C414.6 241.3 416 251.1 416 256C416 260.9 414.6 270.7 406.6 278.6z"></path></svg></span><span class="uagb-icon-list__label">List item</span></div>



<div class="wp-block-uagb-icon-list-child uagb-block-f59379cb"><span class="uagb-icon-list__source-wrap"><svg xmlns="https://www.w3.org/2000/svg" viewBox="0 0 512 512"><path d="M256 0C114.6 0 0 114.6 0 256c0 141.4 114.6 256 256 256s256-114.6 256-256C512 114.6 397.4 0 256 0zM406.6 278.6l-103.1 103.1c-12.5 12.5-32.75 12.5-45.25 0s-12.5-32.75 0-45.25L306.8 288H128C110.3 288 96 273.7 96 256s14.31-32 32-32h178.8l-49.38-49.38c-12.5-12.5-12.5-32.75 0-45.25s32.75-12.5 45.25 0l103.1 103.1C414.6 241.3 416 251.1 416 256C416 260.9 414.6 270.7 406.6 278.6z"></path></svg></span><span class="uagb-icon-list__label">List item</span></div>



<div class="wp-block-uagb-icon-list-child uagb-block-0317fead"><span class="uagb-icon-list__source-wrap"><svg xmlns="https://www.w3.org/2000/svg" viewBox="0 0 512 512"><path d="M256 0C114.6 0 0 114.6 0 256c0 141.4 114.6 256 256 256s256-114.6 256-256C512 114.6 397.4 0 256 0zM406.6 278.6l-103.1 103.1c-12.5 12.5-32.75 12.5-45.25 0s-12.5-32.75 0-45.25L306.8 288H128C110.3 288 96 273.7 96 256s14.31-32 32-32h178.8l-49.38-49.38c-12.5-12.5-12.5-32.75 0-45.25s32.75-12.5 45.25 0l103.1 103.1C414.6 241.3 416 251.1 416 256C416 260.9 414.6 270.7 406.6 278.6z"></path></svg></span><span class="uagb-icon-list__label">List item</span></div>
</div></div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.gironi.it/blog/regressione-multipla-spiegata-semplice/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
