La teoria classica della verifica d'ipotesi è basata sul lemma di Neyman-Pearson, che individua, presperimentalmente, la statistica più discriminante: il rapporto di verosimiglianza. Nella visione decisionale frequentista ortodossa solo la conclusione raggiunta dipende dai dati. La misura della forza della conclusione resta invece congelata nelle probabilità d'errore del primo e del secondo tipo, per quanto remoti siano i dati dalla frontiera fra accettazione e rifiuto. Il tradizionale rimedio nell'inferenza frequentista è misurare l'evidenza contro un'ipotesi calcolando un p-value. Negli anni 90 Royall da un lato e Berger e coautori dall'altro hanno riesaminato in dettaglio la giustificazione di misure postsperimentali di evidenza statistica, secondo un approccio di pura verosimiglianza il primo e di sinergia fra proprietà bayesiane e frequentiste condizionali i secondi. Le considerazioni presentate non sembrano aver esaurito il problema.
Nell'esposizione, basata su una ricerca con Alessandra Salvan, si approfondisce una proposta ispirata alle indicazioni metodologiche di R.A. Fisher, in particolare il condizionamento a statistiche ancillari. Sotto condizioni di regolarità è possibile reperire una statistica ancillare per il modello statistico costituito da due ipotesi semplici. Essa consente di calcolare probabilità d'errore condizionali, quindi dipendenti dai dati, per la regola di discriminazione naturale basata sul rapporto di verosimiglianza. Si argomenta che si tratta della misura frequentista della forza della conclusione raggiunta più prossima a rispettare il principio di verosimiglianza.
Nell'ambito delle attività del Dottorato in Economia e Finanza, il Prof. Luigi Pace terrà tre incontri sul tema dell'inferenza statistica lunedì 5 maggio 2008 dalle 11.00 alle 12.30 e dalle 15.00 alle 16.30, e lunedì 12 maggio 2008 dalle 15.30 alle 17.00. Ulteriori informazioni possono essere richieste al Prof. Marco Minozzo (marco.minozzo@univr.it). Si riporta di seguito il programma delle lezioni.
lunedì 5 maggio ore 11.00-12.30
Lezione 1 - Modelli statistici: variabilità nei dati e incertezza nelle inferenze
Principi dell'inferenza statistica;
Specificazione del modello (variabilità nei dati);
Problemi di distribuzione (variabilità statistica delle inferenze);
La funzione di ripartizione empirica;
Convergenze per sommme di variabili casuali;
Il metodo delta;
Modelli statistici dominati.
lunedì 5 maggio ore 15.00-16.30
Lezione 2 - Verosimiglianza: quantità osservate, proprietà esatte, inferenza
Verosimiglianza: quantità osservate;
Verosimiglianza: proprietà campionarie esatte;
Verosimiglianza: procedure di inferenza (senza parametri di disturbo);
Riparametrizzationi (cenni);
Esempi: modello lineare normale.
lunedì 12 maggio ore 15.30-17.00
Lezione 3 - Verosimiglianza: risultati asintotici
Lo stimatore di massima verosimiglianza: consistenza e normalità asintotica;
Lo stimatore di massima verosimiglianza: robustezza e generalizzazione tramite equazioni di stima;
Versioni del test del rapporto di verosimiglianza per un'ipotesi nulla semplice;
Distribuzioni asintotiche sotto l'ipotesi nulla e sotto alternative contigue;
Modelli con parametri di disturbo: verosimiglianze marginali, condizionate, composite;
La verosimiglianza profilo (cenni).
Bibliografia per le lezioni
Azzalini, A. (2001). Inferenza Statistica: una Presentazione Basata sul Concetto di Verosimiglianza. Springer, Milano.
Pace, L. and Salvan, A. (1996). Teoria della Statistica: Metodi, Modelli, Approssimazioni Asintotiche. Cedam, Padova.
Pace, L. and Salvan, A. (2001). Introduzione alla Statistica - II. Inferenza, Verosimiglianza, Modelli. Cedam, Padova.
Severini, T.A. (2000). Likelihood Methods in Statistics. Oxford University Press, Oxford.
Titolo | Formato (Lingua, Dimensione, Data pubblicazione) |
---|---|
Measures of statistical evidence in discrimination between two simple hypotheses |
![]() |
******** CSS e script comuni siti DOL - frase 9957 ********