Autore |
Discussione |
|
bellastoria
Nuovo Arrivato
Prov.: Bayern
Città: wuerzburg
21 Messaggi |
Inserito il - 21 gennaio 2009 : 13:39:19
|
Ciao Dottori, Scusatemi la domanda un po' banale, sto usando graphpad versione 5 per windows(l'ultima per intenderci) Ho un sacco di istogrammi da fare e di ciascun gruppo di dati devo applicare un test ANOVA. Dopo aver effettuato il test, ogni qualvolta un determinato gruppo di dati risponde positivamente al test (con un determinato grado di confidenza, mostrato nel summary del test:*=95%, **=99%, ***=99,9%). devo ogni volta copiare le stelline a mano e copiarle sopra la corrispettiva dolonna dell'istogramma.
La domanda è questa: C'è un sistema che mi permetta automaticamente di mostrare le stelline (corrispettive alla significatività del test che ho fatto) sopra la colonnina corrispettiva????
Lo so che la domanda è un po' incasinata,ma se qualcuno avesse capito cosa intendo per favore mi risponda, (sto diventando scemo...)
F.
|
|
|
Neuroscience
Utente
659 Messaggi |
Inserito il - 22 gennaio 2009 : 12:38:33
|
entro in off-topic, ma non trovo corretto inserire un numero variabile di stelline in funzione della significatività. La significatività dovrebbe essere impostata prima di fare l'esperimento e poi segnalare quali sono stati positivi ai test effettuati. In generale mettere la significatività che è più conveniente al momento ed al dato non è serio, secondo me. Sarebbe come decidere ed applicare una legge dopo aver visto un possibile reato. O metti tutti i test al 99,9%, o 99% o 95%... Altrimenti anche io potrei affermare in un grafico che un determinato istogramma è significativo al 67% rispetto al controllo, mentre un altro istogramma è significativo al 93%. Non avrebbe più senso la significatività.
|
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 22 gennaio 2009 : 12:54:43
|
Personlamente non concordo. Puoi definire vari livelli di significatività (es significativo e altamente significativo) anche se la cosa è tutt'altro che chiara. Vedi a riguardo http://www.nature.com/nature/journal/v210/n5041/pdf/2101190a0.pdf
Per GraphPad non ti saprei dire, non l'ho mai usato. Forse potendo creare delle macro sarebbe fattibile. Decisamente una cosa del genere è scriptabile (che termine orribile che ho appena coniato) in R.
|
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
Neuroscience
Utente
659 Messaggi |
Inserito il - 27 gennaio 2009 : 12:00:55
|
Sinceramente rinnovo ogni mia perplessità al riguardo, sebbene si tratti soprattutto di un principio che sta alla base del concetto di esperimento, e non di un fatto statistico.
Proprio perché si tratta di un principio non voglio sostenere o ripetere l'argomento in un lungo thread, rischieremmo di ripetere gli stessi concetti in diverse salse senza cambiare le nostre opinioni. Per cui concludo qui.
Secondo me "altamente significativo", se usato per paragonarlo a "significativo", perde il concetto stesso di significatività. Sarebbe come paragonare "vero" con "altamente vero", che secondo me è fuori ogni senso, poiché sottointende che dire la parola "vero" non significa il 100% dell'aggettivo. La percentuale di confidenza statistica non è relazionata direttamente alla significatività intesa come percentuale di verità, ma alla rigorosità del test o esperimento. Tanto varrebbe inserire direttamente la percentuale di confidenza e tralasciare l'asterisco della significatività.
Mi puoi mandare l'articolo by e-mail? qui all'università non mi è possibile scaricare gli articoli di Nature antecedenti al 1970.
|
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 27 gennaio 2009 : 13:16:57
|
Certo, te lo mando.
Non che quell'articolo risolva il problema ovviamente... solo pone la questione.
Comunque credo che stiamo parlando di cose differenti: una cosa è il valore di alfa che scegli a priori (quello che dici tu) ed una cosa è il valore di p che ottieni.
Es. un dato che abbia p=0.01 con alfa=0.10 è più significativo di un dato con p=0.05 con alfa=0.10 semplicemente perchè, tenendo fissi i limiti di confidenza nel primo caso hai l'1% di probabilità che le differenze siano dovute al caso, nel secondo caso hai il 5% di probabilità.
Ovviamente questo non vuol dire necessariamente che il primo dato sia "più vero" o "più importante" del secondo, ma è "statisticamente più significativo". |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
|
bellastoria
Nuovo Arrivato
Prov.: Bayern
Città: wuerzburg
21 Messaggi |
Inserito il - 05 febbraio 2009 : 11:41:15
|
Grazie, scusate se non ho risposto prima ma sono stato molto molto impegnato con le centinaia di grafici che stavo editando. Anzitutto piacere di conoscervi (entrambi) e grazie per le risposte. Come avrete ben capito la questione non è ancora risolta (in quanto alla domanda) e sono giunto alla conclusione che con graphpad non si può fare (automaticamente). Tuttosommato vedo che la discussione ha assunto un taglio molto più profondo, ci si trova sempre a discutere su significatività, cut-off, alfa... E sono felicissimo che lo si faccia perchè ritengo che sia importante e formativo. Ovviamente i vostri pareri sono molto più "significativi" (haha) dei miei in quanto, tuttosommato, sono un neofita al vostro cospetto.
Ovviamente in questa discussione mi trovo completamente in Accordo con chick 80. In quanto il mio valore di significatività alfa è stato deciso a priori. Una volta presi tutti i valori significativi (per me sopra il 95%) a quel punto si vuole indicare nel grafico quali sono molto significativi 99% o 99.9 % il che non significa che sono più importanti biologicamente. Il significati che mi verrebbe da dargli è: un risultato estremamente ripetibile, non dovuto al caso.
Vi ringrazio molto per la disponibilità GRAZIE e continuate così.
F.
P.S. adesso ho ancora altre questioni da porre di carattere bio-iformatico/statistico, ma per queste preferisco aprire un'altra discussione. A presto! |
|
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
Inserito il - 10 febbraio 2009 : 13:46:58
|
Ciao bellastoria, al di là di quanto detto... non ho tempo purtroppo per dire la mia.. ritengo che tu abbia un problema ben più grande che non quello degli asterischi .. ma un problema contettualmente importante e cioè dici che hai fatto molte ANOVA quindi sei sicuramente di fronte ad una inflazione dell'errore di primo tipo che ti obbliga a risettare il valroe soglia di accettazione/rifiuto dell'ipotesi nulla. Se non lo fai ha poco sugo quello che presenterai.
inoltre l'errore alpha è il complemento del livello di confidenza (1-alpha), quindi se decidi di usare il livello di confidenza nella presentazione dei tuoi risultati, ricordati che non sono una misura del grado di rifuto dell'ipotesi ma al contrario esprimono la probabilità di accettare l'ipotesi nulla quando è vera.
termini come molto significativo, altamente significativo non dovrebbero essere usati, in quanto non esiste nessuna relazione tra il valore di p e una sorta di magnitudo della significatività.. ricordo che il p value è una probabilità condizionata ovvero la probabilità di osservare sotto l'ipotesi nulla un determinato valore della statistica test riferita ad una particolare distribuzione di probabilità...e che valori estremi di p indicano sono una maggiore 'rarità' di osservazione di quel valore sotto l'ipotesi nulla supposta vera!
La scelta di utilizzare un criterio decisionale per decidere se accettare o meno l'ipotesi nulla è una scelta totalmente arbitraria e non sostenibile dal punto di vista scientifico ..quindi chiunque può stabilire il proprio criterio di accettazione.. nel fare questo automaticamente accetta di commettere due tipi di errore che sono quantificabili a priori... e quindi proprio per questo dovrebbero essere accettati dalla comunità scientifica. I test statistici sono come i test diagnostici hanno una loro sensibilità e una specificità a differenza dei test diagnostici la sensibilità e al specificità non devono essere stimati ma si possono stabilire per convenzione a priori... normalmente uno studio dovrebbe avere una sensibilità del 95% (confidenza) e una Specificità (potere) almeno dell'80%.
come ho già detto altre volte quando gli editors delle riviste smetteranno di chiedere il p value accenderò un cero a san Gennaro!!!
|
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 10 febbraio 2009 : 14:45:07
|
Scusa TMax, ma personalmente credo che ci sia da fare una precisazione. Sono d'accordo quando dici che p viene "misused" (come si dice in italiano?) ma ci sono situazioni e situazioni.
Se io sto misurando lo stesso parametro, secondo me ha senso parlare di risultati più o meno significativi. Un gruppo che mi dia p=0.06 rispetto al controllo, può non ricadere nel limite di significatività scelto, ma sicuramente non è da scartare come "trattamento non funzionante". D'altra parte, però, se un altro trattamento ti dà una p=10^-5, non credi che quello si possa chiamare decisamente significativo? Cioè, se lo confronto con qualcosa di più border-line, nel caso di p=10^-5 io personalmente sono più certo di quel risultato, sempre ovviamente tenendo a mente tutti i "se" e i "ma" del caso. Insomma, se mi trovassi nella situazione di dover scegliere solo uno dei due trattamenti per gli esperimenti successivi sceglierei il secondo.
Ovviamente se sto misurando parametri differenti ha poco senso confrontare i livelli di significatività, ma quella è un'altra storia. |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
Inserito il - 10 febbraio 2009 : 15:35:27
|
NO! il valore di p è il valore di probabilità osservato sotto l'ipotesi nulla!! valori estremi indicano che solo che sotto l'ipotesi nulla quel valore si osseva raramente... se adotti il test di significatività di Fisher ti devi fermare qui! perchè un valore raro dotto l'ipotesi nulla non significa che è un valore frequente sotto l'ipotesi alternativa... per il semplice fatto che nel test di Fisher non si fa nessuna dichiarazione in merito all'ipotesi alternativa... devi quindi solo prendere una decisione di tipo qualitativo ..accetto / rifiuto e non si è autorizzati a dare più o meno peso al valore che otteniamo di p
se invece adotti il test d'ipotesi di Newman Pearson e quindi dichiari a priori qual'è l'ipotesi alternativa..allora si pone il problema dell'effect size e cioè della differenza 'clinicamente' 'biologicamente' 'epidemiologicamente'.....(dipende dal campo di studio) importante...ma una volta stabilito qual'è questa differenza il fatto che il valore di p osservato sia più o meno raro sotto l'ipotesi nulla ha scarsa rilevanza...
è una questione affrontata molte volte e molte volte si è ripetuto di non usare aggettivi quali 'molto' 'altamente' ecc, ecc, davanti al termini 'statisticamente significativo'.
ciao TMax |
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 10 febbraio 2009 : 16:46:36
|
Mi potresti gentilmente dare delle referenze a riguardo? Grazie
E altra domanda: come fai a dire che un farmaco è più efficace di un altro allora? E trovandoti, come ti ho detto, nella situazione di dover scegliere uno tra i due trattamenti dell'esempio di sopra come ti comporteresti? |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
Inserito il - 11 febbraio 2009 : 13:16:05
|
per le referenze..in teoria qualsiasi libro di statistica quando parla dei test d'ipotesi dovrebbe chiarire bene il significato e in genere è cosi... c'è una interessante serie di articoli sul misuse del pvalue nel British medical journal... dammi il tempo di trovare qualcosa e te lo giro...
circa la seconda domanda: beh certo non uso i test statistici per definire l'efficacia di un farmaco ma uso delle misure di associazione o meglio di effetto come ad esempio il Number Needed to Treat con gli intervalli di confidenza... l'errore che si fa purtroppo è quello di delegare la 'decisione' sulla efficacia tra due trattamenti al risultato di un test statistico .... quando appunto le misure di effetto sono lo strumento più adeguato... non solo, a priori andrebbe definita la MCID ovvero la Minimal Clinically Important Difference, che difatti è la misura di significatività clinica... (o efficacia del trattamento). Stabilita questo valore... l'assenza di significatività statistica del risultato ottenuto è solo da imputare ad un inadeguata dimensione del campione....cioè ad un basso potere del test... però questo non dovrebbe essere un 'problema' perchè stabilendo la MCID a priori si può settare correttamente la dimensione dello studio per avere appunto una sensibilità del 95% e una specificità minima dell'80%
circa la questione che poni tu... che posso provare a sintetizzare ma giusto per capire se ho capito io...
in un confronto ottieni un p=0.04 e in un altro un p=0.001 tu sostienti che p=0.001 è più significativo di p=0.04...
nella realtà dei fatti però uno è solo un risultato più raro dell'altro... stabilito che il cut off è 0.05 allora sono entrambe differenze significative.... se usi un test di significatività... in caso di un test d'ipotesi puoi eventualmente speculare che il risultato osservato con p=0.001 è estremamente raro sotto l'ipotesi nulla e più frequente sotto l'ipotesi H1 che però devi aver chiarito bene all'inizio dello studio...
ciao TMax
|
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 11 febbraio 2009 : 18:25:43
|
Citazione: nella realtà dei fatti però uno è solo un risultato più raro dell'altro...
E' esattamente quello che voglio dire io. Cioè, lasciamo un attimo perdere se "altamente significativo" sia un termine corretto o meno da usare e parliamo praticamente.
Io faccio un esperimento per vedere se delle cellule crescono di più in presenza di una sostanza X o di una sostanza Y (o di nessuna). Faccio tutti i miei vari esperimenti etc etc e alla fine avrò 3 gruppi: controllo, X e Y su cui misuro un qualche indice di crescita cellulare.
Ora, faccio un'ANOVA per confrontare i gruppi e poi ad es. un test post-hoc di Tukey. Diciamo che il test di Tukey mi dica che sia X che Y sono differenti dai controlli (prendendo 0.05 come limite di significatività), ma X con p=0.035 e Y con p=0.008. Posso quindi dire che entrambi i gruppi sono significativamente differenti dal controllo. Ottimo.
Diciamo che questo esperimento fosse la base per fare degli esperimenti più complessi e che quindi farò solo con uno dei due composti (perchè costa troppo, ci vuole troppo tempo o una qualsiasi ragione). Secondo me è plausibile scegliere Y rispetto ad X per questi secondi esperimenti, in quanto il valore di p è minore, cioè è un evento più raro che le differenze viste con i controlli siano casuali. Sono cosciente del fatto che in teoria potrebbe anche non essere così, ma nella maggioranza dei casi in pratica funziona. Secondo me questo è un caso in cui ha senso confrontare il valore di p (poi ci sono altri casi in cui non ha senso, sono d'accordo).
E questo ha ancora più senso se il test di Tukey mi dice che Y è anche diverso da X.
---
Grazie anticipate per le referenze, non seguo i giornali di statistica e non saprei bene dove andarle a pescare. |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
Inserito il - 11 febbraio 2009 : 23:50:51
|
...e che vuoi che ti dica... se dici che in teoria non puoi fare una cosa, ma che in pratica la fai perchè a te sembra che funzioni.. continua a farlo, non so proprio cosa dirti.. :-)
semplicemente il pvalue che ottieni lo devi confrontare con il valore che hai scelto per accettare/rifiutare l'ipotesi nulla!
che poi il pvalue sia 0.03 o 0.0001 ..nn cambia... il giudizio è solo qualitativo.. non è chiaro poi perchè avendo davanti a te il valore effettivo dell'indice di crescita cellulare tu non consideri quello per decidere se usare X e Y. Meglio ancora, calcolando gli intervalli di confidenza della statistica che hai deciso di usare hai tutte le informazioni per prendere una decisione sensata!
guarda che però è un punto centrale della teoria del test di significatività di Fisher, come al solito non è un problema dei biostatistici ma dei biologi/medici/veterinari/ecc... che interpretano a loro modo le cose... ma non funziona cosi!!
TMax
|
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 12 febbraio 2009 : 08:26:54
|
Forse il problema è che gli statistici e i biologi non sanno spiegarsi tra loro...
Se è meno probabile che una cosa accada allora uno può essere più sicuro che accada. Questa è una cosa che a me appare assolutamente logica.
Sempre tornando al mio esempio di sopra potresti farmi un esempio numerico di tre distribuzioni in cui un'ANOVA ti dà p value differenti (come nel mio esempio di sopra) ma in cui gli intervalli di confidenza della distribuzione con p maggiore ti portino a scegliere X invece di Y? Se i due concetti sono matamaticamente legati, dipendendo comunque dalla distribuzione dei dati, non capisco come potrebbero non influenzarsi a vicenda.
Nota che non sto dicendo che ti sbagli (lo statistico sei tu, non io), voglio solo capire perchè il mio ragionamento è IN PRATICA sbagliato. Detto questo non credo di aver mai applicato un ragionamento del genere (anche se ho messo le stelline sugli istogrammi ), ma vorrei capire meglio il concetto che sta alla base della tua spiegazione. |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 12 febbraio 2009 : 12:52:00
|
vabbè dai adesso non generalizzare troppo! Non tutti fanno così
Comunque credo siamo d'accordo che la correttezza dei metodi statistici usati non possa prescindere dal senso biologico di quel risultato. Mi vengono in mente diversi risultati "significativi" ottenuti in linee cellulari che biologicamente non hanno alcun senso in vivo, quindi anche se in quel particolare sistema sono formalmente corretti, non hanno poi praticamente alcuna utilità; non per colpa della statistica ma per colpa del modello scelto ovviamente.
Comunaue grazie mille dei links, stasera me li leggo
|
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
|
Discussione |
|