  <?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>machine learning &#8211; paologironi blog</title>
	<atom:link href="https://www.gironi.it/blog/tag/machine-learning-it/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.gironi.it/blog</link>
	<description>Appunti sparsi di (retro) informatica, analisi dei dati, statistica, seo, e cose che cambiano</description>
	<lastBuildDate>Fri, 20 Sep 2024 12:54:42 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>La Discesa del Gradiente: un nuovo studio mette in discussione un assunto base sull&#8217;ottimizzazione</title>
		<link>https://www.gironi.it/blog/la-discesa-del-gradiente-un-nuovo-studio-mette-in-discussione-un-assunto-base-sullottimizzazione/</link>
					<comments>https://www.gironi.it/blog/la-discesa-del-gradiente-un-nuovo-studio-mette-in-discussione-un-assunto-base-sullottimizzazione/#respond</comments>
		
		<dc:creator><![CDATA[paolo]]></dc:creator>
		<pubDate>Sun, 20 Aug 2023 13:45:44 +0000</pubDate>
				<category><![CDATA[ai]]></category>
		<category><![CDATA[statistica]]></category>
		<category><![CDATA[algoritmi]]></category>
		<category><![CDATA[discesa del gradiente]]></category>
		<category><![CDATA[machine learning]]></category>
		<guid isPermaLink="false">https://www.gironi.it/blog/?p=3031</guid>

					<description><![CDATA[Nel 1847, il matematico francese Augustin-Louis Cauchy stava lavorando su calcoli astronomici, quando ideò un metodo comune di ottimizzazione ora noto come discesa del gradiente. Oggi la maggior parte dei programmi di machine learning si basa su questa tecnica, e anche altri campi la usano per analizzare dati e risolvere problemi ingegneristici. I ricercatori hanno &#8230; <a href="https://www.gironi.it/blog/la-discesa-del-gradiente-un-nuovo-studio-mette-in-discussione-un-assunto-base-sullottimizzazione/" class="more-link">Leggi tutto<span class="screen-reader-text"> "La Discesa del Gradiente: un nuovo studio mette in discussione un assunto base sull&#8217;ottimizzazione"</span></a>]]></description>
										<content:encoded><![CDATA[
<p>Nel 1847, il matematico francese Augustin-Louis Cauchy stava lavorando su calcoli astronomici, quando ideò un metodo comune di ottimizzazione ora noto come <strong><em>discesa del gradiente</em></strong>. Oggi la maggior parte dei programmi di <em>machine learning</em> si basa su questa tecnica, e anche altri campi la usano per analizzare dati e risolvere problemi ingegneristici.</p>



<span id="more-3031"></span>



<p>I ricercatori hanno perfezionato la discesa del gradiente per oltre 150 anni, ma un recente studio ha dimostrato che un suo presupposto di base potrebbe essere sbagliato. Il lavoro ha mostrato che <strong>la tecnica può funzionare quasi 3 volte più velocemente se infrange una regola accettata da tempo su come trovare la soluzione ottimale</strong>.</p>



<p>La discesa del gradiente usa una &#8220;<em>funzione di costo</em><sup data-fn="72f4e4ff-094b-4fbe-bb32-129bd1819921" class="fn"><a href="#72f4e4ff-094b-4fbe-bb32-129bd1819921" id="72f4e4ff-094b-4fbe-bb32-129bd1819921-link">1</a></sup>&#8221; per capire dove si trova il punto ottimo. Gli algoritmi si muovono seguendo il gradiente più ripido della curva per raggiungere il minimo della funzione.</p>



<p>La saggezza consolidata è che l&#8217;algoritmo debba muoversi con piccoli passi per non &#8220;oltrepassare&#8221; la soluzione. Ma il nuovo studio ha scoperto che <strong>una sequenza con un grande passo al centro converge più velocemente</strong>. Questo approccio ciclico con un &#8220;salto gigante&#8221; può arrivare al punto ottimo 3 volte più rapidamente.</p>



<p>La ricerca rimette in discussione l&#8217;intuizione su come funziona al meglio la discesa del gradiente. Anche se difficilmente cambierà l&#8217;uso pratico della tecnica, costringe a riconsiderare la teoria che vi è dietro.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>Fonte: <a href="https://www.quantamagazine.org/risky-giant-steps-can-solve-optimization-problems-faster-20230811/" target="_blank" rel="noreferrer noopener">Quanta Magazine</a></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>


<ol class="wp-block-footnotes"><li id="72f4e4ff-094b-4fbe-bb32-129bd1819921">Una &#8220;funzione di costo&#8221; è una misura quantitativa che valuta l&#8217;adeguatezza delle previsioni generate da un modello rispetto ai dati di addestramento. In termini più precisi, una funzione di costo assegna un valore numerico a ciascuna previsione del modello in base alla discrepanza tra la previsione e il valore reale associato. L&#8217;obiettivo della funzione di costo è minimizzare questo valore numerico, indicando una migliore aderenza del modello ai dati di addestramento. In molti algoritmi di apprendimento automatico, la scelta della funzione di costo influisce sulla capacità del modello di apprendere e generalizzare correttamente dai dati. <a href="#72f4e4ff-094b-4fbe-bb32-129bd1819921-link" aria-label="Salta al riferimento nella nota a piè di pagina 1">↩︎</a></li></ol>]]></content:encoded>
					
					<wfw:commentRss>https://www.gironi.it/blog/la-discesa-del-gradiente-un-nuovo-studio-mette-in-discussione-un-assunto-base-sullottimizzazione/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
