Forum

Nome Utente:
Password:
Riconoscimi automaticamente
 Tutti i Forum
 MolecularLab
 Bioinformatica
 GraphPad--> le stelline negli istogrammi
 Nuova Discussione  Nuovo Sondaggio Nuovo Sondaggio
 Rispondi Aggiungi ai Preferiti Aggiungi ai Preferiti
Cerca nelle discussioni
I seguenti utenti stanno leggendo questo Forum Qui c'è:

Aggiungi Tag Aggiungi i tag

Quanto è utile/interessante questa discussione:

Autore Discussione  

bellastoria
Nuovo Arrivato

Prov.: Bayern
Città: wuerzburg


21 Messaggi

Inserito il - 21 gennaio 2009 : 13:39:19  Mostra Profilo  Visita l'Homepage di bellastoria Invia a bellastoria un Messaggio Privato  Rispondi Quotando
Ciao Dottori,
Scusatemi la domanda un po' banale, sto usando graphpad versione 5 per windows(l'ultima per intenderci) Ho un sacco di istogrammi da fare e di ciascun gruppo di dati devo applicare un test ANOVA.
Dopo aver effettuato il test, ogni qualvolta un determinato gruppo di dati risponde positivamente al test (con un determinato grado di confidenza, mostrato nel summary del test:*=95%, **=99%, ***=99,9%). devo ogni volta copiare le stelline a mano e copiarle sopra la corrispettiva dolonna dell'istogramma.

La domanda è questa:
C'è un sistema che mi permetta automaticamente di mostrare le stelline (corrispettive alla significatività del test che ho fatto) sopra la colonnina corrispettiva????


Lo so che la domanda è un po' incasinata,ma se qualcuno avesse capito cosa intendo per favore mi risponda, (sto diventando scemo...)

F.

Neuroscience
Utente



659 Messaggi

Inserito il - 22 gennaio 2009 : 12:38:33  Mostra Profilo  Visita l'Homepage di Neuroscience Invia a Neuroscience un Messaggio Privato  Rispondi Quotando
entro in off-topic, ma non trovo corretto inserire un numero variabile di stelline in funzione della significatività. La significatività dovrebbe essere impostata prima di fare l'esperimento e poi segnalare quali sono stati positivi ai test effettuati.
In generale mettere la significatività che è più conveniente al momento ed al dato non è serio, secondo me. Sarebbe come decidere ed applicare una legge dopo aver visto un possibile reato.
O metti tutti i test al 99,9%, o 99% o 95%... Altrimenti anche io potrei affermare in un grafico che un determinato istogramma è significativo al 67% rispetto al controllo, mentre un altro istogramma è significativo al 93%. Non avrebbe più senso la significatività.


Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 22 gennaio 2009 : 12:54:43  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Personlamente non concordo. Puoi definire vari livelli di significatività (es significativo e altamente significativo) anche se la cosa è tutt'altro che chiara.
Vedi a riguardo http://www.nature.com/nature/journal/v210/n5041/pdf/2101190a0.pdf

Per GraphPad non ti saprei dire, non l'ho mai usato. Forse potendo creare delle macro sarebbe fattibile.
Decisamente una cosa del genere è scriptabile (che termine orribile che ho appena coniato) in R.

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

Neuroscience
Utente



659 Messaggi

Inserito il - 27 gennaio 2009 : 12:00:55  Mostra Profilo  Visita l'Homepage di Neuroscience Invia a Neuroscience un Messaggio Privato  Rispondi Quotando
Sinceramente rinnovo ogni mia perplessità al riguardo, sebbene si tratti soprattutto di un principio che sta alla base del concetto di esperimento, e non di un fatto statistico.

Proprio perché si tratta di un principio non voglio sostenere o ripetere l'argomento in un lungo thread, rischieremmo di ripetere gli stessi concetti in diverse salse senza cambiare le nostre opinioni. Per cui concludo qui.

Secondo me "altamente significativo", se usato per paragonarlo a "significativo", perde il concetto stesso di significatività. Sarebbe come paragonare "vero" con "altamente vero", che secondo me è fuori ogni senso, poiché sottointende che dire la parola "vero" non significa il 100% dell'aggettivo.
La percentuale di confidenza statistica non è relazionata direttamente alla significatività intesa come percentuale di verità, ma alla rigorosità del test o esperimento.
Tanto varrebbe inserire direttamente la percentuale di confidenza e tralasciare l'asterisco della significatività.

Mi puoi mandare l'articolo by e-mail? qui all'università non mi è possibile scaricare gli articoli di Nature antecedenti al 1970.


Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 27 gennaio 2009 : 13:16:57  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Certo, te lo mando.

Non che quell'articolo risolva il problema ovviamente... solo pone la questione.

Comunque credo che stiamo parlando di cose differenti: una cosa è il valore di alfa che scegli a priori (quello che dici tu) ed una cosa è il valore di p che ottieni.

Es. un dato che abbia p=0.01 con alfa=0.10 è più significativo di un dato con p=0.05 con alfa=0.10 semplicemente perchè, tenendo fissi i limiti di confidenza nel primo caso hai l'1% di probabilità che le differenze siano dovute al caso, nel secondo caso hai il 5% di probabilità.

Ovviamente questo non vuol dire necessariamente che il primo dato sia "più vero" o "più importante" del secondo, ma è "statisticamente più significativo".

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 03 febbraio 2009 : 19:29:22  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Altra interessante lettura: il capitolo 4 delle dispense linkate qui http://www.molecularlab.it/forum/topic.asp?TOPIC_ID=1286

Interessante anche 4.2 - PERCHE’ P < 0.05 ? E’ UN RITO OPPURE UNA SCELTA RAZIONALE?


Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

bellastoria
Nuovo Arrivato

Prov.: Bayern
Città: wuerzburg


21 Messaggi

Inserito il - 05 febbraio 2009 : 11:41:15  Mostra Profilo  Visita l'Homepage di bellastoria Invia a bellastoria un Messaggio Privato  Rispondi Quotando
Grazie, scusate se non ho risposto prima ma sono stato molto molto impegnato con le centinaia di grafici che stavo editando.
Anzitutto piacere di conoscervi (entrambi) e grazie per le risposte. Come avrete ben capito la questione non è ancora risolta (in quanto alla domanda) e sono giunto alla conclusione che con graphpad non si può fare (automaticamente).
Tuttosommato vedo che la discussione ha assunto un taglio molto più profondo, ci si trova sempre a discutere su significatività, cut-off, alfa... E sono felicissimo che lo si faccia perchè ritengo che sia importante e formativo.
Ovviamente i vostri pareri sono molto più "significativi" (haha) dei miei in quanto, tuttosommato, sono un neofita al vostro cospetto.

Ovviamente in questa discussione mi trovo completamente in Accordo con chick 80. In quanto il mio valore di significatività alfa è stato deciso a priori. Una volta presi tutti i valori significativi (per me sopra il 95%) a quel punto si vuole indicare nel grafico quali sono molto significativi 99% o 99.9 % il che non significa che sono più importanti biologicamente.
Il significati che mi verrebbe da dargli è: un risultato estremamente ripetibile, non dovuto al caso.

Vi ringrazio molto per la disponibilità GRAZIE e continuate così.

F.

P.S. adesso ho ancora altre questioni da porre di carattere bio-iformatico/statistico, ma per queste preferisco aprire un'altra discussione. A presto!
Torna all'inizio della Pagina

TMax
Utente Junior

TMax

Prov.: BG
Città: Capriate


270 Messaggi

Inserito il - 10 febbraio 2009 : 13:46:58  Mostra Profilo  Visita l'Homepage di TMax Invia a TMax un Messaggio Privato  Rispondi Quotando
Ciao bellastoria,
al di là di quanto detto... non ho tempo purtroppo per dire la mia..
ritengo che tu abbia un problema ben più grande che non quello degli asterischi ..
ma un problema contettualmente importante
e cioè dici che hai fatto molte ANOVA quindi sei sicuramente di fronte ad una inflazione dell'errore di primo tipo che ti obbliga a risettare il valroe soglia di accettazione/rifiuto dell'ipotesi nulla.
Se non lo fai ha poco sugo quello che presenterai.

inoltre l'errore alpha è il complemento del livello di confidenza (1-alpha), quindi se decidi di usare il livello di confidenza nella presentazione dei tuoi risultati, ricordati che non sono una misura del grado di rifuto dell'ipotesi ma al contrario esprimono la probabilità di accettare l'ipotesi nulla quando è vera.

termini come molto significativo, altamente significativo non dovrebbero essere usati, in quanto non esiste nessuna relazione tra il valore di p e una sorta di magnitudo della significatività.. ricordo che il p value è una probabilità condizionata ovvero la probabilità di osservare sotto l'ipotesi nulla un determinato valore della statistica test riferita ad una particolare distribuzione di probabilità...e che valori estremi di p indicano sono una maggiore 'rarità' di osservazione di quel valore sotto l'ipotesi nulla supposta vera!

La scelta di utilizzare un criterio decisionale per decidere se accettare o meno l'ipotesi nulla è una scelta totalmente arbitraria e non sostenibile dal punto di vista scientifico ..quindi chiunque può stabilire il proprio criterio di accettazione.. nel fare questo automaticamente accetta di commettere due tipi di errore che sono quantificabili a priori... e quindi proprio per questo dovrebbero essere accettati dalla comunità scientifica.
I test statistici sono come i test diagnostici hanno una loro sensibilità e una specificità
a differenza dei test diagnostici la sensibilità e al specificità non devono essere stimati ma si possono stabilire per convenzione a priori... normalmente uno studio dovrebbe avere una sensibilità del 95% (confidenza) e una Specificità (potere) almeno dell'80%.

come ho già detto altre volte quando gli editors delle riviste smetteranno di chiedere il p value accenderò un cero a san Gennaro!!!


Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 10 febbraio 2009 : 14:45:07  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Scusa TMax, ma personalmente credo che ci sia da fare una precisazione.
Sono d'accordo quando dici che p viene "misused" (come si dice in italiano?) ma ci sono situazioni e situazioni.

Se io sto misurando lo stesso parametro, secondo me ha senso parlare di risultati più o meno significativi. Un gruppo che mi dia p=0.06 rispetto al controllo, può non ricadere nel limite di significatività scelto, ma sicuramente non è da scartare come "trattamento non funzionante". D'altra parte, però, se un altro trattamento ti dà una p=10^-5, non credi che quello si possa chiamare decisamente significativo? Cioè, se lo confronto con qualcosa di più border-line, nel caso di p=10^-5 io personalmente sono più certo di quel risultato, sempre ovviamente tenendo a mente tutti i "se" e i "ma" del caso.
Insomma, se mi trovassi nella situazione di dover scegliere solo uno dei due trattamenti per gli esperimenti successivi sceglierei il secondo.

Ovviamente se sto misurando parametri differenti ha poco senso confrontare i livelli di significatività, ma quella è un'altra storia.

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

TMax
Utente Junior

TMax

Prov.: BG
Città: Capriate


270 Messaggi

Inserito il - 10 febbraio 2009 : 15:35:27  Mostra Profilo  Visita l'Homepage di TMax Invia a TMax un Messaggio Privato  Rispondi Quotando
NO!
il valore di p è il valore di probabilità osservato sotto l'ipotesi nulla!!
valori estremi indicano che solo che sotto l'ipotesi nulla quel valore si osseva raramente...
se adotti il test di significatività di Fisher ti devi fermare qui! perchè un valore raro dotto l'ipotesi nulla non significa che è un valore frequente sotto l'ipotesi alternativa... per il semplice fatto che nel test di Fisher non si fa nessuna dichiarazione in merito all'ipotesi alternativa... devi quindi solo prendere una decisione di tipo qualitativo ..accetto / rifiuto e non si è autorizzati a dare più o meno peso al valore che otteniamo di p

se invece adotti il test d'ipotesi di Newman Pearson e quindi dichiari a priori qual'è l'ipotesi alternativa..allora si pone il problema dell'effect size e cioè della differenza 'clinicamente' 'biologicamente' 'epidemiologicamente'.....(dipende dal campo di studio) importante...ma
una volta stabilito qual'è questa differenza il fatto che il valore di p osservato sia più o meno raro sotto l'ipotesi nulla ha scarsa rilevanza...

è una questione affrontata molte volte e molte volte si è ripetuto di non usare aggettivi quali 'molto' 'altamente' ecc, ecc, davanti al termini 'statisticamente significativo'.

ciao
TMax
Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 10 febbraio 2009 : 16:46:36  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Mi potresti gentilmente dare delle referenze a riguardo? Grazie

E altra domanda: come fai a dire che un farmaco è più efficace di un altro allora? E trovandoti, come ti ho detto, nella situazione di dover scegliere uno tra i due trattamenti dell'esempio di sopra come ti comporteresti?

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

TMax
Utente Junior

TMax

Prov.: BG
Città: Capriate


270 Messaggi

Inserito il - 11 febbraio 2009 : 13:16:05  Mostra Profilo  Visita l'Homepage di TMax Invia a TMax un Messaggio Privato  Rispondi Quotando
per le referenze..in teoria qualsiasi libro di statistica quando parla dei test d'ipotesi dovrebbe chiarire bene il significato e in genere è cosi... c'è una interessante serie di articoli sul misuse del pvalue nel British medical journal... dammi il tempo di trovare qualcosa e te lo giro...


circa la seconda domanda:
beh certo non uso i test statistici per definire l'efficacia di un farmaco
ma uso delle misure di associazione o meglio di effetto come ad esempio il Number Needed to Treat con gli intervalli di confidenza... l'errore che si fa purtroppo è quello di delegare la 'decisione' sulla efficacia tra due trattamenti al risultato di un test statistico ....
quando appunto le misure di effetto sono lo strumento più adeguato...
non solo, a priori andrebbe definita la MCID ovvero la Minimal Clinically Important Difference, che difatti è la misura di significatività clinica... (o efficacia del trattamento). Stabilita questo valore... l'assenza di significatività statistica del risultato ottenuto è solo da imputare ad un inadeguata dimensione del campione....cioè ad un basso potere del test...
però questo non dovrebbe essere un 'problema' perchè stabilendo la MCID a priori si può settare correttamente la dimensione dello studio per avere appunto una sensibilità del 95% e una specificità minima dell'80%

circa la questione che poni tu...
che posso provare a sintetizzare ma giusto per capire se ho capito io...

in un confronto ottieni un p=0.04 e in un altro un p=0.001
tu sostienti che p=0.001 è più significativo di p=0.04...

nella realtà dei fatti però uno è solo un risultato più raro dell'altro... stabilito che il cut off è 0.05 allora sono entrambe differenze significative.... se usi un test di significatività...
in caso di un test d'ipotesi puoi eventualmente speculare che il risultato osservato con p=0.001 è estremamente raro sotto l'ipotesi nulla e più frequente sotto l'ipotesi H1 che però devi aver chiarito bene all'inizio dello studio...

ciao
TMax


Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 11 febbraio 2009 : 18:25:43  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Citazione:
nella realtà dei fatti però uno è solo un risultato più raro dell'altro...

E' esattamente quello che voglio dire io. Cioè, lasciamo un attimo perdere se "altamente significativo" sia un termine corretto o meno da usare e parliamo praticamente.

Io faccio un esperimento per vedere se delle cellule crescono di più in presenza di una sostanza X o di una sostanza Y (o di nessuna).
Faccio tutti i miei vari esperimenti etc etc e alla fine avrò 3 gruppi: controllo, X e Y su cui misuro un qualche indice di crescita cellulare.

Ora, faccio un'ANOVA per confrontare i gruppi e poi ad es. un test post-hoc di Tukey.
Diciamo che il test di Tukey mi dica che sia X che Y sono differenti dai controlli (prendendo 0.05 come limite di significatività), ma X con p=0.035 e Y con p=0.008.
Posso quindi dire che entrambi i gruppi sono significativamente differenti dal controllo. Ottimo.

Diciamo che questo esperimento fosse la base per fare degli esperimenti più complessi e che quindi farò solo con uno dei due composti (perchè costa troppo, ci vuole troppo tempo o una qualsiasi ragione). Secondo me è plausibile scegliere Y rispetto ad X per questi secondi esperimenti, in quanto il valore di p è minore, cioè è un evento più raro che le differenze viste con i controlli siano casuali. Sono cosciente del fatto che in teoria potrebbe anche non essere così, ma nella maggioranza dei casi in pratica funziona.
Secondo me questo è un caso in cui ha senso confrontare il valore di p (poi ci sono altri casi in cui non ha senso, sono d'accordo).

E questo ha ancora più senso se il test di Tukey mi dice che Y è anche diverso da X.

---

Grazie anticipate per le referenze, non seguo i giornali di statistica e non saprei bene dove andarle a pescare.

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

TMax
Utente Junior

TMax

Prov.: BG
Città: Capriate


270 Messaggi

Inserito il - 11 febbraio 2009 : 23:50:51  Mostra Profilo  Visita l'Homepage di TMax Invia a TMax un Messaggio Privato  Rispondi Quotando
...e che vuoi che ti dica...
se dici che in teoria non puoi fare una cosa, ma che in pratica la fai perchè a te sembra che funzioni.. continua a farlo, non so proprio cosa dirti.. :-)

semplicemente il pvalue che ottieni lo devi confrontare con il valore che hai scelto per accettare/rifiutare l'ipotesi nulla!

che poi il pvalue sia 0.03 o 0.0001 ..nn cambia... il giudizio è solo qualitativo..
non è chiaro poi perchè avendo davanti a te il valore effettivo dell'indice di crescita cellulare tu non consideri quello per decidere se usare X e Y. Meglio ancora, calcolando gli intervalli di confidenza della statistica che hai deciso di usare hai tutte le informazioni per prendere una decisione sensata!

guarda che però è un punto centrale della teoria del test di significatività di Fisher, come al solito non è un problema dei biostatistici ma dei biologi/medici/veterinari/ecc... che interpretano a loro modo le cose... ma non funziona cosi!!



TMax





Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 12 febbraio 2009 : 08:26:54  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Forse il problema è che gli statistici e i biologi non sanno spiegarsi tra loro...

Se è meno probabile che una cosa accada allora uno può essere più sicuro che accada. Questa è una cosa che a me appare assolutamente logica.

Sempre tornando al mio esempio di sopra potresti farmi un esempio numerico di tre distribuzioni in cui un'ANOVA ti dà p value differenti (come nel mio esempio di sopra) ma in cui gli intervalli di confidenza della distribuzione con p maggiore ti portino a scegliere X invece di Y? Se i due concetti sono matamaticamente legati, dipendendo comunque dalla distribuzione dei dati, non capisco come potrebbero non influenzarsi a vicenda.

Nota che non sto dicendo che ti sbagli (lo statistico sei tu, non io), voglio solo capire perchè il mio ragionamento è IN PRATICA sbagliato. Detto questo non credo di aver mai applicato un ragionamento del genere (anche se ho messo le stelline sugli istogrammi ), ma vorrei capire meglio il concetto che sta alla base della tua spiegazione.

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

TMax
Utente Junior

TMax

Prov.: BG
Città: Capriate


270 Messaggi

Inserito il - 12 febbraio 2009 : 11:34:19  Mostra Profilo  Visita l'Homepage di TMax Invia a TMax un Messaggio Privato  Rispondi Quotando
ciao...
l'argomento è estremamente interessante e se ne è scritto davvero molto...
non farmi scrivere qui quello che già si trova abbondantemente in rete...
è un argomento importante perchè purtroppo ( colpa dei biologi ..ribadisco..!!)
il vero significato di inferenza statistica, test d'ipotesi, significatività, p value, intervalli di confidenza, non sono stati assolutamente capiti dai ricercatori... (forse gli statistici non si sanno spiegare... soprattutto se sono molto formali nelle loro spiegazioni)..
quindi ti invito a consultare questi siti tra i molti che puoi trovare sull'argomento ( è sufficiente scrivere (confidence intervals vs p value) in google per avere una lista notevole sull'argomento

tra quelli visionati rapidamente che mi sembrano ben fatti e poco formali dal punto di vista statistico ma a misura di 'biologo' ci sono:

http://www.emergency.ualberta.ca/uofa/rounds/Stats_p-values_files/v3_document.htm
http://www.sportsci.org/resource/stats/pvalues.html

questo è un buon articolo:
www.cmaj.ca/cgi/data/171/6/611/DC1/1

una presentazione ...
http://www.google.it/url?sa=t&source=web&ct=res&cd=5&url=http%3A%2F%2Frds.epi-ucsf.org%2Fticr%2Fsyllabus%2Fcourses%2F4%2F2008%2F11%2F20%2FLecture%2Fnotes%2FUnderstanding%2520P-%2520values%2520and%2520CI%252020Nov08.ppt&ei=9fOTSfmrHoOS0AXF4_CDCg&usg=AFQjCNE8oMLbLeaHdeiMcwbildxeI9HJVQ&sig2=vVj1aZZ-WIdQQ_f8f-pUUQ

semplicissimo ma molto chiaro articoletto
http://www.nntonline.net/ebm/newsletter/2005/July/P_values_and_confidence_intervals.pdf

anche qui... molto semplice
http://www.graphpad.com/articles/pvalue.htm

e ...molti altri....

per esperienza ti dico che i ricercatori arrivano dallo statistico con già la verità in tasca e pretendono solo una cosa..che l'analisi dei dati ( di solito non sanno mai quale analisi fare e perchè) dia un valore di p 'significativo' , se poi leggono qualcosa come p<0.00001
raggiungono l'orgasmo... se invece hanno p>0.05 fanno nell'ordine queste cose:

1. cercano un altro statistico
2. dicono ..fa nulla tanto il nostro non è uno studio statistico
3. ti chiedono se si può far qualcosa per far venir fuori p<0.05
4. ti dicono che la statistica però può sbagliare perchè loro stanno in lab e dal punto di vista pratico hanno ragione loro comunque
5. ti chiedono: ma hai fatto il t-test??
6. i più evoluti ti dicono: ah ma bisognava fare l'ANOVA

ecc, ecc, .....

buona lettura!
TMax



Torna all'inizio della Pagina

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 12 febbraio 2009 : 12:52:00  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
vabbè dai adesso non generalizzare troppo! Non tutti fanno così

Comunque credo siamo d'accordo che la correttezza dei metodi statistici usati non possa prescindere dal senso biologico di quel risultato. Mi vengono in mente diversi risultati "significativi" ottenuti in linee cellulari che biologicamente non hanno alcun senso in vivo, quindi anche se in quel particolare sistema sono formalmente corretti, non hanno poi praticamente alcuna utilità; non per colpa della statistica ma per colpa del modello scelto ovviamente.

Comunaue grazie mille dei links, stasera me li leggo

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina
  Discussione  

Quanto è utile/interessante questa discussione:

 Nuova Discussione  Nuovo Sondaggio Nuovo Sondaggio
 Rispondi Aggiungi ai Preferiti Aggiungi ai Preferiti
Cerca nelle discussioni
Vai a:
MolecularLab.it © 2003-18 MolecularLab.it Torna all'inizio della Pagina