Quanto è utile/interessante questa discussione:
Autore |
Discussione |
|
bellastoria
Nuovo Arrivato
Prov.: Bayern
Città: wuerzburg
21 Messaggi |
Inserito il - 05 febbraio 2009 : 14:59:52
|
Cari dottori, oggi ho una domanda (la domanda principe è quella in grassetto, ma in realtà se leggete il post ne ho moltissime di domande irrisolte) a cui fino ad adesso nessuno ha saputo rispondermi. Ma sono sicuro che scaturirà discussioni importanti in quanto sembra banale, ma non lo è affatto.
Il caso: Mi trovo a fare uno studio di gene expression, più precisamente: mi interessa sapere se una sostanza cambia l'espressione di alcuni geni (84 per l'esattezza). Lo studio è disegnato con diversi time points e diverse concentrazioni della sostanza. Ciascun test è performato in triplicato.
Dopo aver finito tutti questi Array ho fatto una replica di questo studio ripetendo tutto nello stesso modo. Stesse cellule, stessa sotanza stessi time-points stesse concentrazioni... .ecc ecc.
Domande sull'analisi dei dati:
1) facendo riferimento al primo studio (senza considerare la replica). Fino ad adesso i dati venivano analizzati così: ogni piatto (96 well) è stato normalizzato sulla media dei valori di 5 diversi house keeping genes. (Per ogni time point separatamente...) dopodichè i piatti sono stati normalizzati sui relativi controlli. In tal modo, si è potuto valutare il fold change di ciascun gene. Considerando la deviazione standard dei capioni e dei controlli i dati sono stati analizzato con una ANOVA ad una via con correzione di dunnets.Già qui qualcuno mi piò dire come mai si utilizza questa correzione? come mai dunnets? cosa fa in particolare? perchè non un'altro.
2) dopo aver fatto la seconda replica dell'intero studio, la domanda principale è: cosa si fa per mettere assieme e dati? cosa mi conviene fare? non posso di certo fare la media di tutti i valori delle cellule trattate e la media dei controlli e su questi infine fare l'ANOVA. Quindi cosa mi suggerite? tenere i valori deinitivamente separati o c'è un modo per unificare gli studi assieme... Già qui le cose sono confuse... ma di domande ne ho ancora...
Domande specifiche sul kit che uso (i controlli interni ad ogni plates)
3)Il kit che uso io è della SABIOSCIENCES ma non ho ben capito come funzionano i controlli: cosa cambia tra RT control e POSITIVE PCR CONTROL e ancora RT-Efficiency che salta fuori dalla differenza dei primi due?? cioè in pratica: che ci sta dentro i pozzetti?? qualcuno usa questi kits e i templates che la ditta fornisce? il kit dice: "the reverse transcription control (RTC) tests the efficiency of the first strand kit reaction with a primer set detecting the template synthesized from the kit's built-in external RNA control. the Positive PCR COntrol (PPC) test the efficiency of the polymerase chain reaction itself using a pre-dispensed artificial DNA sequence and the primer set that detects it". Personalemnte non ci ho capito molto, so solo che il controllo effettivo che viene chiamato RT- efficiency è dato dalla differenza dei Ct values di RTC-PPC deve essere inferiore a 5 unità di fol change... se qualcuno ha una lampadina mi illumini....
ancora analisi dei dati
4) quando si analizzano i 3 dati ripetuti di una stessa concentrazione, quando si fa la media dei dati mi è stato suggerito di prendere in considerazione solo i valori con una SD inferiore a 0.15... ma io in realtà ne ho molti che sono superiori.. la mia domanda è dunque, per quanto riguarda varianza e deviazione standerd dei gruppi, non mi basta l'ANOVA? non mi da già il TEST ANOVA il risultato in funzione della dispersione dei miei dati? Ha senso tenere conto solo dei set di valori con SD inferiori a 0.15?
il grande cruccio della melting curve
5)Dopo aver calcolato i Ct values con il software della roche (strumento LightCycler 480) io solitamente faccio anche un'analisi della melting courves e questo spesso mi da la presenza di due pcchi. O meglio. la maggior parte dei pozzetti ha un picco, altri hanno due picchi, altri ancora hanno solo un picco (ma forse sono 2 che eclissano quasi totalmente l'uno nell'altro risultando in un picco più allargato), altri ancora invece hanno un aspetto del tuttto normale (un picco) eppure il programma me ne segna 2. Ora non capisco cose ci devo fare di questi risultati. O meglio Come tratto i risultati delle meltig curves? So che non sono stato molto chiaro, ma il problema sarebbe molto più semplice se sapessi spiegare meglio ciò che accade. in poche parole cosa devo fare con una melting curve? e soprattutto, devo vedere io personalemnte tutte le 96 melting curve di ogni piatto oppure posso fidarmi dei risultati che mi da il software sapendo che alle volte segna 2 picchi (che potrebbero significare 2 prodotti di amplificazione) anche quando io ne vedo solo uno.... c'è una altezza significativa che devono avere i picchi per essere tenuti i considerazione?.... insomma sta melting curve l'ho capita solo nella teoria, ma non nella pratica....
Per il momento mi sembra di aver detto abbastanza cose, e spenderò volentieri tempo a spiegarmi meglio nel qual caso qualcuno non capisse a cosa mi riferisco. Sperando di risolvere almeno qualcuno dei problemi che ho ...
Intanto vi ringrazio un sacco con grande stima F.
P.S. anche se non mi rispondete a tutt le questioni, o alla peggio, neanche ad una.. mi è utile anceh solo un p' di incoraggiamento... ciao e grazie
|
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 05 febbraio 2009 : 17:45:54
|
Wow... un sacco di domande! Provo a risponderti, tieni conto che non sono uno statistico
1) Non ho mai sentito parlare di correzione di Dunnet, ma conosco il test di Dunnet. Immagino sia la stessa cosa, ma mi potrei sbagliare.
Ad ogni modo, il test di Dunnet è un test post-hoc che viene utilizzato per il confronto di un numero di trattamenti vs un controllo. Il calcolo che viene fatto è essenzialmente lo stesso del test di Tukey, con la differenza che Dunnet confronta il controllo con i vari trattamenti (o le varie [] nel tuo caso) senza confrontare i trattamenti fra di loro.
Quindi avendo per ipotesi i seguenti gruppi: controllo, 100 pM, 1nM, 10nM e 100 nM
Il test di Dunnet ti dirà ad es. che l'espressione è modificata nei gruppi 10nM e 100 nM rispetto al controllo Il test di Tukey fatto sugli stessi dati ti darà lo stesso risultato, ma in più ti potrebbe dire che 100nM è statisticamente differente da 10nM (e che 10 e 100 nM sono diversi da 100pM etc), in quanto confronta tutti i gruppi fra di loro, mentre Dunnet confronta solo i trattati con i controlli.
Avendo n gruppi il test di Dunnet ti restituirà n-1 confronti, il test di Tukey te ne restituisce n*(n-1)/2
L'articolo originale è questo: A multiple comparison procedure for comparing several treatmentith a control (sorry, accesso a pagamento).
Essendo un test post-hoc viene fatto ovviamente solo se il risultato dell'ANOVA è < del limite di significatività.
---
2) Il test statistico da usare...
Potresti esprimere tutto in % della media dei controlli in ciascun esperimento e fare l'ANOVA su questi valori.
Ad es. avendo 3 campioni per gruppo, misuri il DDCt del gene di interesse (media dei triplicati), poi calcoli la media di questi 3 campioni e la usi come 100%. Riferisci quindi tutti i campioni dell'esperimento a questa media. In questo modo la media delle % nei controlli DEVE fare 100% in entrambi gli esperimenti.
A questo punto fai un'ANOVA su questi valori di % (metti insieme tutti i valori dei 2 esperimenti). ---
3) Mai usato questo kit, ma immagino che il primo controllo sia RNA per testare l'efficienza della reazione di retrotrascrizione, mentre il secondo controllo sia DNA che serve per testare l'efficienza della reazione di amplificazione.
---
4) Citazione: quando si analizzano i 3 dati ripetuti di una stessa concentrazione, quando si fa la media dei dati mi è stato suggerito di prendere in considerazione solo i valori con una SD inferiore a 0.15... ma io in realtà ne ho molti che sono superiori.. la mia domanda è dunque, per quanto riguarda varianza e deviazione standerd dei gruppi, non mi basta l'ANOVA? non mi da già il TEST ANOVA il risultato in funzione della dispersione dei miei dati? Ha senso tenere conto solo dei set di valori con SD inferiori a 0.15?
Personalmente li terrei tutti. Chi ti ha consigliato questa cosa ha dato una ragione per lo 0.15? E perchè non 0.2? Potresti escludere gli ovvi outliers (es. se hai un triplicato con Ct=10.25, 10.28 e 15 puoi scartare il 15).
---
5) Per la curva di melting se ne era parlato qui: http://www.molecularlab.it/forum/topic.asp?TOPIC_ID=2538
Se hai 2 picchi ben definiti vuol dire che hai dell'aspecifico, se hai un secondo piccolo picco potrebbero anche essere dei dimeri di primers.
--- |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
bellastoria
Nuovo Arrivato
Prov.: Bayern
Città: wuerzburg
21 Messaggi |
Inserito il - 18 febbraio 2009 : 09:01:36
|
Grazie chick80, Sei veramente eccezionale, ho capito molte cose in + di prima....
ma ci sono dei particolari che non mi sono ancora chiari... facciamo un riassunto:
punto 1. Dunnet è un test, ho sbagliato di chiamarlo io... comunque ho capito anche quello che mi hai spiegato dopo, eccezionale! Ho capito anche a cosa serve un il test di Tukey, e forse lo utilizzerò per aveer altre informazioni tra le differenti dosi. ... mi interesserebbe l'articolo... non si potrebbe avere?
punto 2... è quello che mi cre ancora adesso problemi.... vediaolo alla fine
punto 3 risolto grazie ... era come dicevi te, ma ho trovato in lab chi mi ha risposto nel mio caso specifico
punto 4 avevo letto già quel post che mi hai linkato e mi è stato utilissimo infatti all'inizio per avere informazioni generiche sulla curva di meltin, che avevo completamente scordato... ... ma adesso avevo bisogno di sapere se c'è una temperatura al di sotto della quale si possono considerare dimeri di primers... o se ci si affida unicamente all'altezza del picco in esame.
ritornando al punto cruciale.... 2)
come unire i dati provenienti dalle due esperienze... supponiamo che dal primo studio io abbia questi risultati.... controllo 5,23 5,15 4,98 la cui media è: 5,12 low dose 4,85 4,69 4,58 mid dose 4,72 4,91 4,80 high dose 4,65 4,67 5,17
(3 valori uguale 3 replicati) supponiamo di utilizzare un solo hkg per normalizzare i plates. e ciascun valore sopra riportato sia la differenza di fold change tra i Ct value del gene e quello dell'HKG (o gella media degli HKG nel caso siano più di uno).
supponiamo che si decida di fare una ripetizione dello studio indipendente e che i valori siano questa volta:
controllo 5,61 5,83 5,48 la cui media 5,64 low dose 5,18 5,46 5,19 mid dose 4,79 5,06 5,29 high dose 5,13 4,88 4,90
come faccio ad unire i dati?
quello che mi è stato proposto attualmente è di mettere insieme tutto così come lo calcolerei normalmente con un "esa-plicato" anzichè 2 tri-plicati indipendenti. questo secondo me non è correttissimo perchè i Ct values sono diferenti e gli studi sono due fatti in momenti di versi.... tutto potrebbe cambiare anche se io li ho trattati identicamente.
Non ho capito il metodo che mi hai descritto tu, ma penso che sia di certo più esatto di questo perchè normalizza tutto in %. (io ho pisogno di avere i valori di fold change di ciascun gene e anche di ciascun controllo non chè un valore di deviazione standard o di varianza, per poter fare l'Anova con dunnet su questi dati)
La domanda che poi mi sono posto: Non è possibile per caso fare un test a priori prima di analizzare i ati assieme per valutare se i dati sono paragonabili?? i controlli dovebbero essere sullo stesso range no..? mi chiedo, se il t test mi dice se due campioni sono diversi, c'è un test ch emi dice se due campioni sono significativamente simili (anzichè significativamente diversi...)??'
Boh, sono solo speculazioni, nel frattempo Chick80 ti ringrazio tantissimo sei un Mito!
Grazie 1000 ti farò un mezzobusto in bronzo in Lab! a presto F.
|
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 18 febbraio 2009 : 11:14:03
|
Ok, premesso che non sono uno statistico, quindi potrei sbagliarmi... comunque direi che l'idea dell'"esaplicato" non è il massimo...
Quello che dicevo io è fare così:
prendi il primo exp:
controllo 5,23 5,15 4,98 la cui media è: 5,12 low dose 4,85 4,69 4,58 mid dose 4,72 4,91 4,80 high dose 4,65 4,67 5,17
e metti tutto in % rispetto a 5.12
Quindi avrai:
ctrl 102%, 101%, 97% (la cui media DEVE fare 100%) low 92%, 92%, 89% etc etc
Poi prendi il secondo exp
controllo 5,61 5,83 5,48 la cui media 5,64 low dose 5,18 5,46 5,19 mid dose 4,79 5,06 5,29 high dose 5,13 4,88 4,90
e metti tutto in % rispetto a 5.64
Avrai
Ctrl 99.8%, 103%, 97.2% (e la media fa ancora 100) etc etc
Ora puoi unire i 2 gruppi.
--
Per i dimeri di primers proprio non saprei, non l'ho mai fatto in pratica. |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
Inserito il - 18 febbraio 2009 : 11:38:13
|
La domanda che poi mi sono posto: Non è possibile per caso fare un test a priori prima di analizzare i ati assieme per valutare se i dati sono paragonabili?? i controlli dovebbero essere sullo stesso range no..? mi chiedo, se il t test mi dice se due campioni sono diversi, c'è un test ch emi dice se due campioni sono significativamente simili (anzichè significativamente diversi...)??'
i test statistici servono solo per verificare l'ipotesi nulla che è quella che stabilisce che non vi sono differenze...
ma nn puoi usare l'assenza di significatività per dire che due gruppi sono simili...
i test di equivalenza presuppongo una chiara affermazione di qual'è la variazione considerata accettabile tra i due gruppi...e in genere richiedono un numero di osservazioni molto ma molto grande |
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
Inserito il - 20 febbraio 2009 : 13:30:40
|
mi sembra corretto... l'unica cosa è che in teoria, almeno in teoria, le % per essere sottoposte a test parametrici andrebbero trasformate ultizzando l'arcoseno.... però... si può fare l'anova ed eventualmente studiare se i residui sono normali e se c'è omogeneità della varianza dei residui.. in caso contrario si può provare a fare la trasformazione... |
|
|
chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 20 febbraio 2009 : 15:18:49
|
Citazione: le % per essere sottoposte a test parametrici andrebbero trasformate ultizzando l'arcoseno
Come mai?
E nel caso in cui la distribuzione dei valori non fosse normale, sarebbe invece più corretto usare un test non parametrico tipo Kruskal-Wallis? |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|
TMax
Utente Junior
Prov.: BG
Città: Capriate
270 Messaggi |
Inserito il - 20 febbraio 2009 : 20:20:33
|
vado a memoria... le frequenze relative ( o le %) hanno un campo di valori vincolato tra 0 e 1... questo contrasta con la distribuzione di tipo gaussiano o anche la ditribuzione t che hanno invece un campo di valori che va da - a + infinito... quando le osservazioni si concentrano agli estremi (verso il 100% o verso lo 0%) la distribuzione è molto lontana da una normale ... inoltre se consideri che l'anova altro non è che un modello lineare...se fitti il modello e sostituisci i valori predetti dal modello potresti ottenere valori che vanno oltre i limiti della variabile cioè oltre il 100% o oltre lo 0%...
se però hai una serie di frequenze percentuali che ruotano intorno al 50% l'effetto è meno pronunciato e potresti ancora usare i modelli lineari...
certo si possono sempre utilizzare i test non parametrici...in caso però di modelli più complessi.. la trasformazione arcoseno ti permette di usare tutta la potenzialità dei modelli parametrici.
certo non è semplice ragionare in termini di arcoseni!! :-))
buona serata! TMax |
|
|
|
Discussione |
|
|
|
Quanto è utile/interessante questa discussione:
MolecularLab.it |
© 2003-18 MolecularLab.it |
|
|
|