Sto analizzando i dati di un piccolo esperimento che ho fatto in giardino sulla crescita di alcune piante con fertilizzanti diversi. Ho raccolto le misure per due gruppi e, per vedere se la differenza nei risultati fosse significativa, ho calcolato il p-value. Il numero che è uscito è 0.06. Ora sono un po' in dubbio, perché è così vicino a quel famoso confine dello 0.05 che sentiamo sempre nominare. Mi chiedo se, nella pratica, chi lavora con i dati consideri davvero questo valore come una linea netta tra "significativo" e "non significativo", o se ci sia più flessibilità.
|
Cosa significa avere un p-value vicino a 0,05 nella pratica?
|
|
Un p-value di 0.06 indica che, se l’effetto reale fosse nullo, la probabilità di osservare una differenza almeno così evidente è circa 6%. La soglia 0.05 è una convenzione, non una legge; spesso conviene guardare anche l’effetto pratico e l’intervallo di confidenza oltre al p-value.
Capisco la sensazione: è quasi significativo ma non lo è. Il p-value di 0.06 può sembrare una vittoria mancata, ma va letto nel contesto della potenza e della variabilità tra piante.
Controlla l’intervallo di confidenza e la dimensione dell’effetto. Se l’intervallo è stretto e utile, potrebbe valere la pena replicare; il p-value da solo non misura l’importanza pratica.
La soglia rigida 0.05 è discutibile come criterio universale. Potrebbe essere sensato considerare la potenza del test e l’impatto pratico nel giardino quando si interpretano risultati come 0.06.
Una riformulazione utile: non cercare una etichetta binaria ma chiedersi quanto è grande l’effetto e quanto sarebbe utile nel contesto reale. Qual è l’impatto pratico del fertilizzante diverso?
Se l’esperimento non è ben controllato o la variabilità tra piante è alta, un p-value di 0.06 potrebbe riflettere rumore più che un effetto concreto. In tal caso guardare la dimensione dell’effetto e la replicabilità è decisivo.
|
|
« Precedente | Successivo »
|

