La distribuzione beta spiegata semplice

La distribuzione Beta è una distribuzione di probabilità molto importante nell’ambito della statistica bayesiana.

Nei problemi teorici riguardo al calcolo delle probabilità, conosciamo il valore esatto della probabilità di un singolo evento, ed è dunque relativamente agevole applicare le regole di base del calcolo probabilistico per giungere al risultato cercato.

Nella vita reale, tuttavia, è assai più comune avere a che fare con raccolte di osservazioni, ed è a partire da quei dati che dobbiamo ricavare stime di probabilità.

Leggi tutto “La distribuzione beta spiegata semplice”

Multicollinearità, eteroschedasticità, autocorrelazione: tre concetti dai nomi difficili (spiegati semplici)

Nel corso dei vari post, e in particolar in quelli riferiti all’analisi di regressione, all’analisi della varianza e alle serie temporali, abbiamo incontrato dei termini che sembrano fatti appositamente per spaventare il lettore.
Lo scopo di questi miei articoli è proprio quello di spiegare con semplicità i concetti chiave, al di là dell’apparente complessità (è ciò che avrei tanto voluto quando ero studente, anzichè confrontarmi con testi dalla forma volutamente – e inutilmente – involuta) .
E’ giunto dunque il momento di spendere qualche parola per tre importantissimi concetti che ricorrono assai spesso nelle analisi statistiche, e che dunque devono essere ben compresi. La realtà è molto, molto più chiara rispetto all’apparente complessità, dunque… nessuna paura!

Leggi tutto “Multicollinearità, eteroschedasticità, autocorrelazione: tre concetti dai nomi difficili (spiegati semplici)”

L’analisi della varianza, Anova. Spiegata semplice

L’analisi della varianza (ANOVA) è un test parametrico che valuta le differenze tra le medie di due o più gruppi di dati.
Si tratta di un test di ipotesi statistica che trova ampio impiego nell’ambito della ricerca scientifica e che consente di determinare se le medie di almeno due popolazioni sono diverse.
Sono necessari come presupposto minimo una variabile dipendente continua e una variabile indipendente categoriale che divida i dati in gruppi di confronto.

Leggi tutto “L’analisi della varianza, Anova. Spiegata semplice”

Test statistici parametrici e non parametrici

I test statistici possono essere di tipo parametrico oppure non parametrico.

Test parametrici: il potere della normalità

  • I test parametrici presuppongono la presenza di distribuzioni di tipo approssimativamente normale.
  • Riguardano variabili continue o di tipo intervallo e una dimensione del campione abbastanza numerosa (diciamo > 30).
  • Si presuppone anche l’omogeneità delle varianze (omoschedasticità).

Questi test hanno un potere statistico più elevato perchè forniscono una più elevata probabilità di corretto rifiuto di un’ipotesi statistica errata.

Leggi tutto “Test statistici parametrici e non parametrici”

L’analisi di regressione multipla, spiegata semplice.

I fenomeni cui assistiamo, e che vogliamo studiare per approfondirne la comprensione, raramente si presentano in maniera così semplice da potersi definire attraverso due sole variabili, di cui una predittiva (indipendente) e una responso (dipendente).

Per questo, se pure l’analisi di regressione lineare presenta una fondamentale importanza teorica, nella pratica fornisce poca informazione in più rispetto allo studio attraverso il semplice coefficiente di correlazione.

Leggi tutto “L’analisi di regressione multipla, spiegata semplice.”