.
Στις Πιθανότητες και την Στατιστική, t-κατανομή του μαθητή (ή απλά η κατανομή t) είναι κάθε μέλος της οικογένειας των συνεχών κατανομών πιθανότητας που προκύπτει κατά τον υπολογισμό της σημασίας της κανονικής κατανομής του πληθυσμού σε περιπτώσεις όπου το μέγεθος του δείγματος είναι μικρό και η τυπική απόκλιση του πληθυσμού είναι άγνωστη. Λαμβάνοντας υπόψη ότι μια κανονική κατανομή περιγράφει την πληρότητα ενός πληθυσμού,οι t-κατανομές περιγράφουν τα δείγματα που λαμβάνονται από έναν πλήρη πληθυσμό. Κατά συνέπεια, η κατανομή t για κάθε μέγεθος δείγματος είναι διαφορετική, και όσο μεγαλύτερο είναι το δείγμα, τόσο περισσότερο η κατανομή μοιάζει με κανονική κατανομή.
Η κατανομή t παίζει ρόλο σε μια σειρά ευρέως χρησιμοποιούμενων στατιστικών αναλύσεων, συμπεριλαμβανομένων των t-test του μαθητή για την εκτίμηση της στατιστικής σημασίας της διαφοράς μεταξύ των δύο δειγμάτων μέσων, την κατασκευή των διαστημάτων εμπιστοσύνης για την διαφορά μεταξύ δύο πληθυσμών σημαίνει, και την ανάλυση της γραμμικής παλινδρόμησης. Η Κατανομή t του μαθητή εμφανίζεται επίσης στην Μπεϋζιανή ανάλυση των δεδομένων από μια φυσιολογική οικογένεια.
Αν πάρουμε ένα δείγμα n παρατηρήσεων από μια κανονική κατανομή , τότε η κατανομή t με ν = n-1 βαθμούς ελευθερίας μπορεί να οριστεί ως η κατανομή της θέσης της πραγματικής μέσης, σε σχέση με τη μέση τιμή δείγματος και διαιρείται με την τυπική απόκλιση του δείγματος, μετά από ομαλοποίηση πολλαπλασιάζοντας με τον όρο \sqrt{n} . Με τον τρόπο αυτό , η κατανομή t μπορεί να χρησιμοποιηθεί για να εκτιμηθεί πόσο πιθανό είναι η πραγματική μέση να έγκειται σε οποιαδήποτε δεδομένη σειρά.
Η κατανομή t είναι συμμετρική με σχήμα καμπάνας, όπως και η κανονική κατανομή, αλλά έχει βαρύτερες ουρές, που σημαίνει ότι είναι πιο επιρρεπείς στο να παράγουν τιμές που πέφτουν μακριά από τη μέση του. Αυτό το καθιστά χρήσιμο για την κατανόηση της στατιστικής συμπεριφοράς ορισμένων τύπων από μειωμένες τιμές τυχαίων ποσοτήτων, στην οποία παραλλαγή στον παρονομαστή ενισχύεται και μπορεί να παράγει απομακρυσμένες τιμές όταν ο παρονομαστής του δείκτη πέφτει κοντά στο μηδέν.Η κατανομή t του Μαθητή είναι μια ειδική περίπτωση της γενικευμένης υπερβολικής διανομής.
Ιστορία και ετυμολογία
Όσον αφορά στις στατιστικές, η κατανομή t για πρώτη φορά προέρχεται ως μεταγενέστερη διανομή το 1876 από τους Helmert [2][3][4] και Lüroth.[5][6][7]
Στην αγγλική λογοτεχνία παίρνει το όνομά της από την εργασία του William Sealy Gosset 1908 στην Biometrika με το ψευδώνυμο «μαθητής».[8][9]. Ο Gosset εργάστηκε στο Guinness Brewery στο Δουβλίνο,στην Ιρλανδία, και ενδιαφερόταν για τα προβλήματα των μικρών δειγμάτων, για παράδειγμα, οι χημικές ιδιότητες του κριθαριού, όπου το μέγεθος των δειγμάτων μπορεί να είναι τόσο χαμηλά όσο είναι 3. Μία εκδοχή για την προέλευση του ψευδωνύμου είναι ότι ο εργοδότης Gosset προτίμησε το προσωπικό να χρησιμοποιεί ονόματα από στυλό κατά τη δημοσίευση επιστημονικών εργασιών αντί των πραγματικων τους ονομάτων, οπότε αυτός χρησιμοποιείται το όνομα "Μαθητής" για να κρύψει την ταυτότητά του. Μια άλλη εκδοχή είναι ότι οι Guinness δεν θέλουν οι ανταγωνιστές τους να γνωρίζουν ότι χρησιμοποιούσαν το t-τεστ για τον έλεγχο της ποιότητας των πρώτων υλών.[10]
Η εργασία του Gosset αναφέρεται σε διανομή ως «κατανομή συχνότητας των τυπικών αποκλίσεων των δειγμάτων που προέρχονται από ένα φυσιολογικό πληθυσμό». Έγινε γνωστή μέσα από το έργο του Ronald A. Fihesr, ο οποίος κάλεσε τη διανομή "κατανομή του Μαθητή" (δεν πρέπει να συγχέεται με την κυριολεκτική έννοια της λέξης μαθητή) και αναφέρεται στην αξία ως τ.[11][12]
Επεξήγηση
Συνάρτηση πυκνότητας πιθανότητας
Η κατανομή t του Μαθητή χαρακτηρίζεται από την παρακάτω συνάρτηση πυκνότητας πιθανότητας:
\( f(t) = \frac{\Gamma(\frac{\nu+1}{2})} {\sqrt{\nu\pi}\,\Gamma(\frac{\nu}{2})} \left(1+\frac{t^2}{\nu} \right)^{-\frac{\nu+1}{2}},\! \)
όπου V είναι ο αριθμός των βαθμών ελευθερίας και Γ είναι η συνάρτηση γάμα. Αυτό μπορεί επίσης να γραφεί ως
\( f(t) = \frac{1}{\sqrt{\nu}\, B \left (\frac{1}{2}, \frac{\nu}{2}\right )} \left(1+\frac{t^2}{\nu} \right)^{-\frac{\nu+1}{2}}\!, \)
όπου Β είναι η συνάρτηση βήτα. Στο σημείο αυτό, δείτε το σχόλιο σελίδα συζήτησης σχετικά με τη Συνάρτηση Πυκνότητας Πιθανότητας.
Για ν άρτιο,:
\( \frac{\Gamma(\frac{\nu+1}{2})} {\sqrt{\nu\pi}\,\Gamma(\frac{\nu}{2})} = \frac{(\nu -1)(\nu -3)\cdots 5 \cdot 3} {2\sqrt{\nu}(\nu -2)(\nu -4)\cdots 4 \cdot 2\,}. \)
Για v περιττό,:
\( \frac{\Gamma(\frac{\nu+1}{2})} {\sqrt{\nu\pi}\,\Gamma(\frac{\nu}{2})} = \frac{(\nu -1)(\nu -3)\cdots 4 \cdot 2} {\pi \sqrt{\nu}(\nu -2)(\nu -4)\cdots 5 \cdot 3\,}.\! \)
Η συνάρτηση πυκνότητας πιθανότητας είναι συμμετρική, και το συνολικό σχήμα της μοιάζει με το σχήμα καμπάνας μιας κανονικά κατανεμημένης μεταβλητής με μέση τιμή 0 και διακύμανση 1, εκτός από το ότι είναι λίγο χαμηλότερη και ευρύτερη. Καθώς ο αριθμός των βαθμών ελευθερίας μεγαλώνει, η t-κατανομή προσεγγίζει την κανονική κατανομή με μέση τιμή 0 και διακύμανση 1. Οι παρακάτω εικόνες δείχνουν την πυκνότητα της t-κατανομής για την αύξηση των τιμών \(\nu \) . Η κανονική κατανομή φαίνεται ως μια μπλε γραμμή για σύγκριση. Σημειώστε ότι η κατανομή t (κόκκινη γραμμή) γίνεται πιο κοντά στην κανονική κατανομή καθώς το \( \nu \) αυξάνεται.
Πυκνότητα της t-κατανομής (κόκκινο) για 1, 2, 3, 5, 10, και 30 βαθμούς ελευθερίας σε σχέση με την τυπική κανονική κατανομή (μπλε).
Τα Προηγούμενα οικόπεδα εμφανίζονται με πράσινο χρώμα.
1 degree of freedom |
2 degrees of freedom |
3 degrees of freedom |
5 degrees of freedom |
10 degrees of freedom |
30 degrees of freedom |
Αθροιστική συνάρτηση κατανομής
Η αθροιστική συνάρτηση κατανομής μπορεί να γραφεί σύμφωνα με τους όρους της l,την ομαλοποιημένη ανολοκλήρωτη συνάρτηση βήτα. Για t>0[13]
\( F(t) = \int_{-\infty}^t f(u)\,du = 1- \tfrac{1}{2} I_{x(t)}\left(\tfrac{\nu}{2}, \tfrac{1}{2}\right), \)
με :
\( x(t) = \frac{\nu}{{t^2+\nu}}.
Άλλες τιμές θα πρέπει να λαμβάνονται από τη συμμετρία. Μια εναλλακτική φόρμουλα, η οποία ισχύει για t2 < ν,είναι [13]
\( \int_{-\infty}^t f(u)\,du =\tfrac{1}{2} + t\frac{\Gamma \left( \tfrac{1}{2}(\nu+1) \right)} {\sqrt{\pi\nu}\,\Gamma \left(\tfrac{\nu}{2}\right)} {}_2F_1 \left ( \tfrac{1}{2},\tfrac{1}{2}(\nu+1); \tfrac{3}{2}; -\tfrac{t^2}{\nu} \right) \) όπου 2F1 είναι μια συγκεκριμένη περίπτωση της υπεργεωμετρικής λειτουργίας.
Ειδικές Περιπτώσεις
Ορισμένες τιμές του v δίνουν μια ιδιαίτερα απλή μορφή.
ν = 1
Συνάρτηση κατανομής:
\( F(x) = \tfrac{1}{2} + \tfrac{1}{\pi}\arctan(x). \)
Συνάρτηση Πυκνότητας:
\( f(x) = \frac{1}{\pi (1+x^2)}. \)
Δείτε Cauchy Κατανομή
v = 2
Συνάρτηση Κατανομής:
\( F(x) = \tfrac{1}{2}+\frac{x}{2\sqrt{2+x^2}}. \)
Συνάρτηση Πυκνότητας:
\( f(x) = \frac{1}{\left(2+x^2\right)^{\frac{3}{2}}}. \)
v = 3
Συνάρτηση Πυκνότητας:
\( f(x) = \frac{6\sqrt{3}}{\pi\left(3+x^2\right)^2}. \)
v = ∞
Συνάρτηση Πυκνότητας:
\( f(x) = \frac{1}{\sqrt{2\pi}} e^{-\frac{x^2}{2}}. \)
Δείτε Κανονική Κατανομή
Πώς προκύπτει η κατανομή t
Δειγματοληπτική Κατανομή
Ας x1, ..., xn είναι οι αριθμοί που παρατηρήθηκαν σε ένα δείγμα από ένα συνεχή κατανεμημένο πληθυσμό με την αναμενόμενη τιμή μ. Η μέση τιμή του δείγματος και του δείγματος διακύμανσης δίνονται από:
\( \begin{align} \bar{x} &= \frac{x_1+\cdots+x_n}{n} \\ s^2 &= \frac{1}{n-1}\sum_{i=1}^n (x_i - \bar{x})^2 \end{align} \)
Η προκύπτουσα τιμή-t είναι
\( t = \frac{\bar{x} - \mu}{s/\sqrt{n}}. \)
Η κατανομή t με n - 1 βαθμούς ελευθερίας είναι η κατανομή δειγματοληψίας της t-τιμής όταν τα δείγματα αποτελούνται από ανεξάρτητες ταυτόσημα κατανεμημένες παρατηρήσεις από έναν κανονικά κατανεμημένο πληθυσμό. Έτσι, για τους σκοπούς συμπεράσματος t είναι χρήσιμη μια «καίρια ποσότητα» στην περίπτωση που η μέση τιμή και διακύμανση (μ, σ2) είναι άγνωστες παραμέτρους του πληθυσμού, με την έννοια ότι το T-τιμή έχει στη συνέχεια μια κατανομή πιθανοτήτων που εξαρτάται ούτε μ ούτε σ2.
Μπεϋζιανή συμπερασματολογία
Στη Μπεϋζιανή στατιστική, μια (κλίμακα, μετατοπίστηκε) κατανομή t προκύπτει ως οριακή κατανομή της άγνωστης μέσης τιμής για την κανονική κατανομή, όταν η εξάρτηση από μια άγνωστο διακύμανση έχει περιθωριοποιηθεί από:[14]
\( \begin{align} p(\mu\mid D, I) = & \int p(\mu,\sigma^2\mid D, I) \; d \sigma^2 \\ = & \int p(\mu\mid D, \sigma^2, I) \; p(\sigma^2\mid D, I) \; d \sigma^2 \end{align} \)
όπου D είναι τα δεδομένα {xi} καιI αντιπροσωπεύει οποιαδήποτε άλλη πληροφορία που μπορεί να έχει χρησιμοποιηθεί για τη δημιουργία του μοντέλου. Η κατανομή είναι ως εκ τούτου η σύνθεση του όρου διανομής των μ δοσμένων στοιχείων και του σ2 με την οριακή κατανομή του σ2 δοσμένης από τα στοιχεία.
Με n δεδομένα σημεία, αν η ανενημέρωτη τοποθεσία και η κλίμακα priors \( \scriptstyle{p(\mu\mid \sigma^2, I) = \mbox{const}} \) και \( \scriptstyle{p(\sigma^2\mid I)\; \propto \;1/\sigma^2} \) μπορούν να λειφθούν για μ και σ2 , τότε το θεώρημα του Bayes δίνει:
\(\begin{align} p(\mu\mid D, \sigma^2, I) \sim & N(\bar{x}, \sigma^2/n) \\ p(\sigma^2 \mid D, I) \sim & \operatorname{Scale-inv-}\chi^2(\nu, s^2) \end{align} \)
μια κανονική κατανομή και μια αντίστροφη κλιμακωτή chi-τετράγωνο κατανομή , αντίστοιχα, όπου ν = n - 1 και
\( s^2 = \sum \frac{(x_i - \bar{x})^2}{n-1}. \)
H αναπόσπαστη περιθωριοποίηση γίνεται
\( \begin{align} p(\mu|D, I) &\propto \int_0^{\infty} \frac{1}{\sqrt{\sigma^2}} \exp \left(-\frac{1}{2\sigma^2} n(\mu - \bar{x})^2\right) \;\cdot\; \sigma^{-\nu-2}\exp(-\nu s^2/2 \sigma^2) \; d\sigma^2 \\ &\propto \int_0^{\infty} \sigma^{-\nu-3} \exp \left(-\frac{1}{2 \sigma^2} \left(n(\mu - \bar{x})^2 + \nu s^2\right) \right) \; d\sigma^2 \end{align} \)
Αυτή μπορεί να αξιολογηθεί με υποκατάσταση \( \scriptstyle{z = A / 2\sigma^2} \) , where \( \scriptstyle{A = n(\mu - \bar{x})^2 + \nu s^2 \) }, δίνοντας:
\( dz = -\frac{A}{2 \sigma^4} d \sigma^2 \) ,
έτσι,
\( p(\mu|D, I) \propto \; A^{-\frac{\nu + 1}{2}} \int_0^\infty z^{(\nu-1)/2} \exp(-z) \, dz \)
Αλλά το z αναπόσπαστο αποτελεί σήμερα ένα πρότυπο Γάμμα αναπόσπαστο, που αποτιμάται σε μια σταθερά, αφήνοντας
\( \begin{align}p(\mu\mid D, I) \propto & \; A^{-\frac{\nu + 1}{2}} \propto & \left( 1 + \frac{n(\mu - \bar{x})^2}{\nu s^2} \right)^{-\frac{\nu + 1}{2}} \end{align} \)
Αυτή είναι μια μορφή της t κατανομής με ρητή κλιμάκωση και μετατόπιση που θα διερευνηθεί με περισσότερες λεπτομέρειες σε ένα περαιτέρω τμήμα παρακάτω. Μπορεί να σχετίζεται με την τυποποιημένη t διανομή από την υποκατάσταση
\( t = \frac{\mu - \bar{x}}{s / \sqrt{n}} \)
όπου\( x(t) = \frac{\nu}{{t^2+\nu}} \) . Η παραπάνω εξαγωγή έχει παρουσιαστεί για την περίπτωση της μη κατατοπιστικής priors για μ και σ2 αλλά θα είναι προφανές ότι οποιαδήποτε priors που οδηγεί σε μια κανονική κατανομή που συνδυάζεται με μια αντίστροφα κλιμακωτή chi-τετράγωνο κατανομή θα οδηγήσει σε t κατανομή με κλιμάκωση και μετατόπιση για P(μ|D,I) , αν και η παράμετρος κλιμάκωσης που αντιστοιχεί στο s2/n παραπάνω τότε θα επηρεαστεί τόσο από την προηγούμενη ενημέρωση και τα δεδομένα, όχι μόνο από τα στοιχεία όπως παραπάνω.
Χαρακτηρισμός
H κατανομή του στατιστικού αποτελέσματος της δοκιμής
Η κατανομή t του μαθητή με ν βαθμούς ελευθερίας μπορεί να οριστεί ως η κατανομή της τυχαίας μεταβλητής Τ με [13][15]
\( T=\frac{Z}{\sqrt{V/\nu}} = Z \sqrt{\frac{\nu}{V}} , \)
όπου
Ζ είναι μια τυπική κανονική με αναμενόμενη τιμή 0 και διακύμανση 1
Το V έχει chi-τετράγωνο κατανομή με ν βαθμούς ελευθερίας
Ζ και V είναι ανεξάρτητα.
Μια διαφορετική διανομή ορίζεται ως εκείνη του τυχαία μεταβλητή που ορίζεται, για μια δεδομένη σταθερή μ, από
\( (Z+\mu)\sqrt{\frac{\nu}{V}}. \)
Αυτή η τυχαία μεταβλητή έχει μη κεντρική t-κατανομή με παράμετρο μη κεντρικότητας μ. Αυτή η κατανομή είναι σημαντική σε μελέτες της δύναμης του t-test του μαθητή.
Παραγωγή
Ας υποθέσουμε ότι X1, ..., Xn είναι ανεξάρτητες υλοποιήσεις μιας κανονικά κατανεμημένης, τυχαίας μεταβλητής Χ, η οποία έχει αναμενόμενη τιμή μ και διακύμανση σ2 . Ας
\( \overline{X}_n = \frac{1}{n}(X_1+\cdots+X_n) \)
είναι η μέση τιμή, και
\( S_n^{\;2} = \frac{1}{n-1}\sum_{i=1}^n\left(X_i-\overline{X}_n\right)^2 \)
είναι μια αμερόληπτη εκτίμηση της διακύμανσης από το δείγμα. Μπορεί να αποδειχθεί ότι η τυχαία μεταβλητή
\( V = (n-1)\frac{S_n^2}{\sigma^2} \)
έχει ένα chi-τετράγωνο κατανομή με ν = n-1 βαθμούς ελευθερίας (με θεώρημα του Cochran ).[16] Είναι εύκολα φανερή η ποσότητα
\( Z = \left(\overline{X}_n-\mu\right)\frac{\sqrt{n}}{\sigma} \)
της κανονικής κατανομής με μέση τιμή 0 και διακύμανση 1, δεδομένου ότι η μέση τιμή δείγματος \( \overline{X}_n \) είναι κανονικά κατανεμημένη με μέση τιμή μ και διακύμανση σ2/n . Επιπλέον, είναι δυνατόν να αποδειχθεί ότι οι εν λόγω δύο τυχαίες μεταβλητές (η κανονικά κατανεμημένη ένα Ζ και η chi-τετράγωνο-διανεμηθεί ένα V) είναι ανεξάρτητες. Κατά συνέπεια η βασική ποσότητα,
\( T \equiv \frac{Z}{\sqrt{V/v}} = \left(\overline{X}_n-\mu\right)\frac{\sqrt{n}}{S_n}, \)
η οποία διαφέρει από το Ζ στο ότι η ακριβής τυπική απόκλιση σ αντικαθίσταται από την τυχαία μεταβλητή Sn, έχει t-κατανομή του μαθητή όπως ορίζεται παραπάνω. Παρατηρήστε ότι ο άγνωστος πληθυσμός μεταβλητότητας σ2 δεν εμφανίζεται σε Τ, δεδομένου ότι ήταν τόσο στον αριθμητή και στον παρονομαστή, έτσι ώστε να ακυρωθεί. Gosset λαμβάνεται διαισθητικά τη συνάρτηση πυκνότητας πιθανότητας αναφέρεται ανωτέρω, με ν ίσο με n - 1, και Fisher αποδείχθηκε το 1925. [11]
Η κατανομή του στατιστικού αποτελέσματος της δοκιμής, Τ, εξαρτάται από το ν, αλλά όχι το μ ή το σ. Η έλλειψη της εξάρτησης από τα μ και σ είναι αυτό που κάνει την t-κατανομή σημαντική τόσο στη θεωρία όσο και στην πράξη.
Μέγιστη κατανομή εντροπίας
Η κατανομή t του μαθητή είναι η μέγιστη κατανομή πιθανοτήτων εντροπίας για μια τυχαία παραλλαγή X για την οποία \(E(\ln(\nu+X^2)) \) σταθεροποιείται.[17]
Ιδιότητες
Ροπές
Για v>1,οι πρώτες στιγμές της t κατανομής είναι \( E(T^k)=\begin{cases} 0 & k \text{ odd},\quad 0<k< \nu\\ \frac{1}{\sqrt{\pi}\Gamma\left(\frac{\nu}{2}\right)}\left[\Gamma\left(\frac{k+1}{2}\right)\Gamma\left(\frac{\nu-k}{2}\right)\nu^{\frac{k}{2}}\right] & k \text{ even}, \quad 0<k< \nu.\\ \end{cases} \)
Ροπές της τάξης v ή και μεγαλύτερης δεν υπάρχουν. Ο όρος για 0 < k < v,k περιττός μπορεί να απλοποιηθεί χρησιμοποιώντας τις ιδιότητες της γάμα συνάρτησης σε \( E(T^k)= \nu^{\frac{k}{2}} \, \prod_{i=1}^{\frac{k}{2}} \frac{2i-1}{\nu - 2i} \qquad k\text{ even},\quad 0<k<\nu. \)
Για μια t κατανομή με v βαθμούς ελευθερίας, η αναμενόμενη τιμή είναι 0, και η διακύμανση v/(v-2) αν v>2.Η ασυμμετρία είναι 0 αν v>3 και η περίσσεια κύρτωση είναι 6/(v-4) αν v>4.
Σχέση με f κατανομή
\( Y \sim \mathrm{F}(\nu_1 = 1, \nu_2 = \nu) \) έχει μια F-κατανομή αν Y = X2 και X ~ t(ν) έχει μια t-κατανομή του Μαθητή.
Δειγματοληψία Monte Carlo
Υπάρχουν διάφορες προσεγγίσεις για την κατασκευή τυχαίων δειγμάτων μέσω της κατανομής t του Μαθητή. Το θέμα εξαρτάται από το αν τα δείγματα απαιτούνται σε αυτόνομη βάση, ή πρόκειται να κατασκευαστεί με την εφαρμογή μιας λειτουργίας για ομοιόμορφα δείγματα? π.χ., στις πολυδιάστατες εφαρμογές βάσει των copula-εξaρτήσεων. Στην περίπτωση της αυτόνομης δειγματοληψίας, μια επέκταση της μεθόδου Box-Muller και την πολική μορφή της μπορεί εύκολα να αναπτυχθεί [18].Έχει το πλεονέκτημα ότι έχει ισχύ εξίσου καλά σε όλους τους πραγματικούς θετικούς βαθμούς ελευθερίας, ν, ενώ πολλές άλλες υποψήφιες μέθοδοι αποτυγχάνουν αν ο ν είναι κοντά στο μηδέν.[18]
Ολοκλήρωμα της Συνάρτησης Πυκνότητας Πιθανότητας του Μαθητή και η p-τιμή
Η λειτουργία A(t|ν) είναι το ολοκλήρωμα της συνάρτησης πυκνότητας πιθανότητας του Μαθητή, f(t) μεταξύ των -t και t, για t ≥ 0.Συνεπώς δίνει την πιθανότητα μία τιμή t μικρότερη από εκείνη που υπολογίζεται από τα παρατηρούμενα δεδομένα να συμβεί κατά τύχη.Ως εκ τούτου, η συνάρτηση Α(t|ν) μπορεί να χρησιμοποιηθεί για να ελεγχθεί αν η διαφορά μεταξύ των μέσων δύο συνόλων από δεδομένα είναι στατιστικά σημαντική, υπολογίζοντας την αντίστοιχη τιμή του t και την πιθανότητα εμφάνισης του εάν τα δύο σύνολα δεδομένων προέρχονταν από τον ίδιο πληθυσμό. Αυτό χρησιμοποιείται σε μια ποικιλία καταστάσεων, ιδιαίτερα σε t-tests. Για την στατιστική t, με ν βαθμούς ελευθερίας, A (t|ν) είναι η πιθανότητα ότι τα t θα είναι μικρότερα από την παρατηρούμενη τιμή εάν τα δύο μέσα ήταν τα ίδια (με την προϋπόθεση ότι ο μικρότερη μέση τιμή αφαιρείται από τη μεγαλύτερη, έτσι ώστε t ≥ 0). Μπορεί εύκολα να υπολογιστεί από την Αθροιστική Συνάρτηση Κατανομής Fν(t) από την t-κατανομή:
\( A(t|\nu) = F_\nu(t) - F_\nu(-t) = 1 - I_{\frac{\nu}{\nu +t^2}}\left(\frac{\nu}{2},\frac{1}{2}\right), \)
όπου Ix είναι η ομαλοποιημένη ανολοκλήρωτη λειτουργία των βήτα (α, β).
Για τον έλεγχο στατιστικών υποθέσεων ο έλεγχος αυτής της λειτουργίας χρησιμοποιείται για την κατασκευή της p-τιμής.
Διαφορική Εξίσωση
Το pdf της t-κατανομής αποτελεί μια λύση της ακόλουθης διαφορικής εξίσωσης :
\( \left\{\begin{array}{l} \left(\nu+x^2\right) f'(x)+(\nu +1) x f(x)=0, \\ f(1)=\frac{\nu^{\nu/2} (\nu +1)^{-\frac{\nu}{2}-\frac{1}{2}}}{B\left(\frac{\nu}{2}, \frac{1}{2}\right)} \end{array}\right\} \)
Μη τυποποιημένη κατανομή t του μαθητή
Σε όρους κλιμάκωσης παραμέτρου σ, ή σ2
Η t-κατανομή του Μαθητή μπορεί να γενικευτεί σε μια οικογένεια τοποθεσίας-κλίμακας τριών παραμέτρων, εισάγοντας μια παράμετρο θέσης \mu και μία παράμετρο κλίμακας \sigma , μέσα από τη σχέση:
X = \mu + \sigma T \)
ή
\( T = \frac{X - \mu}{ \sigma} . \)
Αυτό σημαίνει ότι το πηλίκο \(\frac{x - \mu}{ \sigma} \) έχει μια κλασσική t-κατανομή του Μαθητή με \nu βαθμούς ελευθερίας. Η προκύπτουσα μη-τυποποιημένη t-κατανομή του Μαθητή έχει μια πυκνότητα που ορίζεται από τη σχέση! [19]
\( p(x\mid \nu,\mu,\sigma) = \frac{\Gamma(\frac{\nu + 1}{2})}{\Gamma(\frac{\nu}{2})\sqrt{\pi\nu}\sigma} \left(1+\frac{1}{\nu}\left(\frac{x-\mu}{\sigma}\right)^2\right)^{-\frac{\nu+1}{2}} \)
Εδώ η παράμετρος \(\sigma \) δεν είναι η τυπική απόκλιση της κλίμακας t-κατανομής, οι οποίες μπορεί να μην υπάρχουν καν? ούτε είναι η τυπική απόκλιση της υποκείμενης κανονικής κατανομής, η οποία είναι άγνωστη.Η \sigma θέτει απλώς τη συνολική κλιμάκωση της κατανομής. Στην Bayesian παραγωγή της οριακής κατανομής μιας άγνωστης κανονικής μέσης τιμής \( \mu \) παραπάνω,\( \sigma \) όπως χρησιμοποιείται εδώ αντιστοιχεί στην ποσότητα \(\scriptstyle{s/\sqrt{n}} \) όπου,
\( s^2 = \sum \frac{(x_i - \bar{x})^2}{n-1}. \)
Αντίστοιχα, η κατανομή μπορεί να γραφτεί σε όρους
p(x\mid \nu,\mu,\sigma^2) = \frac{\Gamma(\frac{\nu + 1}{2})}{\Gamma(\frac{\nu}{2})\sqrt{\pi\nu\sigma^2}} \left(1+\frac{1}{\nu}\frac{(x-\mu)^2}{\sigma^2}\right)^{-\frac{\nu+1}{2}} \)
Άλλες ιδιότητες αυτής της έκδοσης της κατανομής είναι [19]
\( \begin{align} \operatorname{E}(X) &= \mu \quad \quad \quad \text{for }\,\nu > 1 ,\\ \text{var}(X) &= \sigma^2\frac{\nu}{\nu-2}\, \quad \text{for }\,\nu > 2 ,\\ \text{mode}(X) &= \mu. \end{align} \)
Αυτή η κατανομή προκύπτει από την ανάμιξη μιας κατανομής Gauss (κανονική κατανομή) με μέσο \mu και άγνωστη διακύμανση, με αντίστροφη κατανομή γάμμα τοποθετείται πάνω από τη διακύμανση με παραμέτρους \(a = \nu/2 και b = \nu\sigma^2/2 \) . Με άλλα λόγια, η τυχαία μεταβλητή Χ υποτίθεται ότι έχει μια κατανομή Gauss με μια άγνωστη διακύμανση κατανεμημένη ως αντίστροφη γάμμα, και στη συνέχεια, η διακύμανση περιθωριοποιείται έξω (ολοκληρωμένη έξω). Ο λόγος για τη χρησιμότητα αυτού του χαρακτηρισμού είναι ότι η κατανομή γάμα αντίστροφα είναι η συζυγής προηγούμενη κατανομή της διακύμανσης μιας Gaussian κατανομής. Ως αποτέλεσμα, η t-κατανομή του μη τυποποιημένου μαθητών προκύπτει φυσικά σε πολλά Μπεϋζιανά συμπερασματολογικά προβλήματα. Δες παρακάτω. Αντίστοιχα, αυτό οδηγεί τη διανομή από ανάμιξη μιας κατανομής Gauss με μια αντίστροφη κλίμακα-chi-τετράγωνο κατανομή με παραμέτρους \nu και \sigma^2. Η αντίστροφη κλίμακα-chi-τετράγωνο κατανομή είναι ακριβώς η ίδια κατανομή όπως η κατανομή γάμα αντίστροφα, αλλά με διαφορετική παραμετροποίηση, δηλαδή \( \nu = 2a, \sigma^2 = b/a. \)
Σε όρους αντίστροφης κλιμάκωσης παραμέτρου λ
Μια εναλλακτική παραμετροποίηση σε όρους μιας αντίστροφης κλιμάκωσης παραμέτρου λ (ανάλογο προς τον τρόπο με ακρίβεια είναι το αντίστροφο της διακύμανσης), που ορίζεται από τη σχέση \( \lambda = \frac{1}{\sigma^2} \) . Στη συνέχεια, η πυκνότητα καθορίζεται από [20]
\( p(x|\nu,\mu,\lambda) = \frac{\Gamma(\frac{\nu + 1}{2})}{\Gamma(\frac{\nu}{2})} \left(\frac{\lambda}{\pi\nu}\right)^{\frac{1}{2}} \left(1+\frac{\lambda(x-\mu)^2}{\nu}\right)^{-\frac{\nu+1}{2}} \) .
Άλλες ιδιότητες της έκδοσης αυτής της διανομής είναι [20]
\(\begin{align} \operatorname{E}(X) &= \mu \quad \quad \quad \text{for }\,\nu > 1 ,\\ \text{var}(X) &= \frac{1}{\lambda}\frac{\nu}{\nu-2}\, \quad \text{for }\,\nu > 2 ,\\ \text{mode}(X) &= \mu. \end{align} \)
Αυτή η κατανομή προκύπτει από την ανάμιξη μιας κατανομής Gauss με μέσο \( \mu \) και άγνωστη ακρίβεια (το αντίστροφο της διακύμανσης), με μία κατανομή γάμα τοποθετημένη πάνω από την ακρίβεια με παραμέτρους \(a = \nu/2 και b = \nu/(2\lambda) \) . Με άλλα λόγια, η τυχαία μεταβλητή Χ υποτίθεται ότι έχει μια κανονική κατανομή με μια άγνωστη ακρίβεια κατανεμημένη ως γάμμα, και στη συνέχεια αυτή περιθωριοποιείται πάνω από την κατανομή γάμμα.
Σχετικές κατανομές
Μη κεντρική t κατανομή
Η μη κεντρική t κατανομή είναι ένας διαφορετικός τρόπος γενίκευσης της κατανομής t για να συμπεριληφθεί μία παράμετρος θέσης. Σε αντίθεση με τις μη προτυποποιημένες t-κατανομές, οι μη κεντρικές κατανομές δεν είναι συμμετρικές (η διάμεσος δεν είναι το ίδιο ως λειτουργία).
Διακριτή κατανομή t του μαθητή
Η διακριτή κατανομή t του μαθητή καθορίζεται από την συνάρτηση πιθανής μάζας στην οποία το r είναι ανάλογο του:[21]
\( \prod_{j=1}^k \frac{1}{(r+j+a)^2+b^2} \quad \quad r=\ldots, -1, 0, 1, \ldots . \)
Εδώ a, b και k είναι παράμετροι. Αυτή η κατανομή προκύπτει από την κατασκευή ενός συστήματος διακριτών κατανομών παρόμοια με εκείνη των κατανομών Pearson για συνεχείς κατανομές.[22]
Περαιτέρω γενικεύσεις
Μπορούμε να δημιουργήσουμε Student-t δείγματα με λήψη της αναλογίας των μεταβλητών από την κανονική κατανομή και την τετραγωνική ρίζα της chi-τετράγωνο κατανομής. Αν χρησιμοποιήσουμε αντί της κανονικής κατανομής, π.χ. ο Irwin-Hall, παίρνουμε πάνω από όλα μια συμμετρική κατανομή 4-παραμέτρων, η οποία περιλαμβάνει την κανονική, την ομοιόμορφη, την τριγωνική, τη Student-t και την κατανομή Cauchy. Με αυτό τον τρόπο είναι π.χ. Επίσης, πιο ευέλικτη από ό, τι κάποιες άλλες συμμετρική γενικεύσεις της κατανομής Gauss.
Χρήσεις
Σε frequentist στατιστική συμπερασματολογία
Η κατανομή t του Μαθητή προκύπτει από μια ποικιλία προβλημάτων στατιστικών εκτιμήσεων, όπου στόχος είναι να εκτιμηθεί μια άγνωστη παράμετρος, όπως μία μέση τιμή, σε ένα περιβάλλον όπου τα δεδομένα παρατηρούνται με τα επιπρόσθετα σφάλματα. Αν (όπως και σε όλες σχεδόν τις πρακτικές στατιστικές εργασίες) η τυπική απόκλιση του πληθυσμού αυτών των σφαλμάτων είναι άγνωστη και πρέπει να υπολογιστεί με βάση τα δεδομένα, η κατανομή t χρησιμοποιείται συχνά για να ληφθεί υπόψη η επιπλέον αβεβαιότητα που προκύπτει από αυτή την εκτίμηση. Στα περισσότερα προβλήματα αυτού του είδους, εάν η τυπική απόκλιση των σφαλμάτων ήταν γνωστή,θα χρησιμοποείται μια κανονική κατανομή αντί της t-κατανομής. Διαστήματα εμπιστοσύνης και έλεγχοι υποθέσεων είναι δύο στατιστικές διαδικασίες στις οποίες το ποσοστό της κατανομής του δείγματος μιας συγκεκριμένης στατιστικής (π.χ. το πρότυπο σκορ) είναι υποχρεωτικά. Σε οποιαδήποτε κατάσταση όπου αυτή η στατιστική είναι μια γραμμική συνάρτηση των δεδομένων, διαιρείται με τη συνήθη εκτίμηση της τυπικής απόκλισης, η προκύπτουσα ποσότητα μπορεί να ανακλιμακωθεί και στο κέντρο για να ακολουθήσει την κατανομή t του Μαθητή. Οι στατιστικές αναλύσεις που αφορούν τα μέσα,το σταθμισμένο μέσο, και οι συντελεστές παλινδρόμησης οδηγούν όλα την στατιστική να πάρει αυτή τη μορφή Αρκετά συχνά, τα προβλήματα του βιβλίου θα αντιμετωπίζουν την τυπική απόκλιση του πληθυσμού, σαν να ήταν γνωστή και ως εκ τούτου αποφεύγεται η ανάγκη να χρησιμοποιήσει κατανομή t του Μαθητή. Αυτά τα προβλήματα είναι γενικά δύο ειδών: (1) εκείνα στα οποία το μέγεθος του δείγματος είναι τόσο μεγάλο, ώστε μπορεί κανείς να την αντιμετωπίσει ως μια εκτίμηση βάσεις δεδομένων της διακύμανσης σαν να ήταν βέβαιο, και (2) εκείνες που επεξηγούν μαθηματική συλλογιστική, στην οποία το πρόβλημα του υπολογισμού της τυπικής απόκλισης έχει προσωρινά αγνοηθεί, διότι αυτό δεν είναι το σημείο που ο συγγραφέας ή ο εκπαιδευτής εξηγεί στη συνέχεια ..
Έλεγχοι Υποθέσεων
Ένας αριθμός των στατιστικών μπορεί να αποδειχθεί ότι έχουν τ-κατανομές για δείγματα μετρίου μεγέθους κάτω από μηδενικές υποθέσεις που έχουν ενδιαφέρον, έτσι ώστε η κατανομή t αποτελεί τη βάση για τις δοκιμές σημασίας. Για παράδειγμα, η κατανομή του βαθμού συσχέτισης συντελεστή ρ του Spearman, σε μηδενική υπόθεση (μηδενική συσχέτιση) προσεγγίζεται καλά από την t κατανομή για μεγέθη δείγματος άνω των 20.
Έλεγχοι Εμπιστοσύνης
Υποθέτουμε ότι ο αριθμός Α επιλέγεται έτσι ώστε να
\( \Pr(-A < T < A)=0.9, \)
όταν το Τ έχει μία κατανομή t με n - 1 βαθμούς ελευθερίας. Με συμμετρία, αυτή είναι η ίδια όπως λέγοντας ότι ικανοποιεί Α
\( \Pr(T < A) = 0.95, \)
οπότε το A είναι το «95ο εκατοστημόριο" αυτής της κατανομής πιθανοτήτων, ή \(A=t_{(0.05,n-1)} \) . Τότε
\( \Pr \left (-A < \frac{\overline{X}_n - \mu}{\frac{S_n}{\sqrt{n}}} < A \right)=0.9, \)
και αυτό είναι ισοδύναμο με
\( \Pr\left(\overline{X}_n - A \frac{S_n}{\sqrt{n}} < \mu < \overline{X}_n + A\frac{S_n}{\sqrt{n}}\right) = 0.9.. \)
Ως εκ τούτου, το χρονικό διάστημα του οποίου τελικά σημεία είναι
\( \overline{X}_n\pm A\frac{S_n}{\sqrt{n}} \)
Είναι ένα 90% διάστημα εμπιστοσύνης για μ. Ως εκ τούτου, αν βρούμε τη μέση τιμή ενός συνόλου παρατηρήσεων που λογικά μπορούμε να περιμένουμε ότι θα έχουμε μια κανονική κατανομή, μπορούμε να χρησιμοποιήσουμε την t-κατανομή ώστε να εξετάσει κατά πόσον τα όρια εμπιστοσύνης στο εν λόγω μέσο περιλαμβάνει κάποια θεωρητικά προβλεπόμενη τιμή - όπως η αξία προβλεπόμενη σε μηδενική υπόθεση.
Είναι αυτό το αποτέλεσμα που χρησιμοποιείται σε t-τεστ του Μαθητή: δεδομένου ότι η διαφορά μεταξύ των μέσων των δειγμάτων από δύο κανονικές κατανομές είναι η ίδια διανέμεται κανονικά,η t-κατανομή μπορεί να χρησιμοποιηθεί για να εξεταστεί αν η διαφορά μπορεί λογικά να υποτίθεται ότι είναι μηδέν .
Εάν τα δεδομένα είναι κανονικά κατανεμημένα, το μονόπλευρο (1 - α) όριο -upper εμπιστοσύνης (UCL) του μέσου όρου, μπορεί να υπολογιστεί χρησιμοποιώντας την ακόλουθη εξίσωση:
\( \mathrm{UCL}_{1-a} = \overline{X}_n + t_{a,n-1}\frac{S_n}{\sqrt{n}}. \)
Το UCL είναι η μεγαλύτερη μέση τιμή που θα προκύψει για ένα συγκεκριμένο διάστημα εμπιστοσύνης και το μέγεθος πληθυσμού. Με άλλα λόγια, το \overline{X}_n όντας ο μέσος όρος του συνόλου των παρατηρήσεων, η πιθανότητα ότι η μέση τιμή της κατανομής είναι κατώτερη UCL1-a είναι ίσο με το επίπεδο εμπιστοσύνης 1 - α.
Πρόβλεψη Διαστημάτων
Η κατανομή t μπορεί να χρησιμοποιηθεί για την κατασκευή μιας πρόβλεψης διαστήματος για ένα απαρατήρητο δείγμα από μία κανονική κατανομή με άγνωστη μέση τιμή και διακύμανση.
Σε Μπεϋζιανή Κατανομή
Η Κατανομή t του Μαθητή, ιδίως στην τρειών παραμέτρων (location-κλίμακα) εκδοχή της, ανακύπτει συχνά στο Bayesian στατιστικές, ως αποτέλεσμα της σύνδεσής της με την κανονική κατανομή. Όποτε η διακύμανση μιας κανονικά κατανεμημένης τυχαίας μεταβλητής είναι άγνωστη και ένα προγενέστερο συζυγές τοποθετείται πάνω από αυτήν το οποίο ακολουθεί μια διανομή αντίστροφη γάμμα, η προκύπτουσα οριακή κατανομή της μεταβλητής θα ακολουθήσει την κατανομή t του Μαθητή. Ισοδύναμες κατασκευές με τα ίδια αποτελέσματα περιλαμβάνουν μια συζυγή κλίμακα-αντίστροφης-chi-τετράγωνο διανομής μέσω της διακύμανσης, ή μια συζυγή γάμα κατανομή πάνω από την ακρίβεια. Εάν μια ακατάλληλη προγενέστερη ανάλογία με σ−2 τοποθετείται πάνω από τη διακύμανση, η κατανομή t προκύπτει επίσης. Αυτή είναι η περίπτωση ανεξάρτητα από το αν ο μέσος όρος της κανονικά κατανεμημένης μεταβλητής είναι γνωστός, είναι άγνωστα κατανεμημένος σύμφωνα με ένα συζυγές κανονικά κατανεμημένο προγενέστερα, ή είναι άγνωστη κατανενημένη σύμφωνα με μια ακατάλληλη προγενέστερη σταθερά.
Σχετικές καταστάσεις που παράγουν επίσης μια t-κατανομή είναι:
Η οριακή εκ των υστέρων κατανομή της άγνωστης μέσης τιμής της κανονικής κατανομής μεταβλητής, με άγνωστη προηγούμενη μέση τιμή και διακύμανση σύμφωνη με το παραπάνω μοντέλο.
Η προγενέστερη προγνωστική κατανομή και η μεταγενέστερη προγνωστική κατανομή ενός νέου κανονικά κατανεμημένου σημείου δεδομένων όταν έχουν παρατηρηθεί μια σειρά από ανεξάρτητα ταυτόσημα κατανεμημένα κανονικά κατανεμημένα σημεία δεδομένων, με προηγούμενη μέση τιμή και διακύμανση, όπως στο παραπάνω μοντέλο.
Στιβαρή παραμετρική μοντελοποίηση
Η κατανομή t χρησιμοποιείται συχνά ως εναλλακτική λύση για την κανονική κατανομή ως μοντέλο για τα δεδομένα.Είναι συχνά η περίπτωση ότι τα πραγματικά δεδομένα έχουν βαρύτερες ουρές από όσο επιτρέπει η κανονική κατανομή. Η κλασική προσέγγιση ήταν να προσδιοριστούν ακραίες τιμές και να αποκλείσει ή βαρύτητά τους με κάποιο τρόπο. Ωστόσο, δεν είναι πάντα εύκολο να προσδιοριστούν ακραίες τιμές (ιδιαίτερα σε υψηλές διαστάσεις) και η κατανομή t είναι μία φυσική επιλογή του μοντέλου για αυτά τα δεδομένα και παρέχει μια παραμετρική προσέγγιση στην εύρωστη στατιστική.
Ο Lange et al.διέυρυνε τη χρήση της t-κατανομής για εύρωστη μοντελοποίηση των βαρέων ουρών δεδομένων σε μια ποικιλία από περιβάλλοντα.Ένας Μπεϋζιανός λογαριασμός μπορεί να βρεθεί σε Gelman et al. Οι βαθμοί ελευθερίας της παραμέτρου ελέγχουν την κύρτωση της κατανομής και συσχετίζεται με την παράμετρο κλίμακα. Η πιθανότητα μπορεί να έχει πολλά τοπικά μέγιστα και, ως εκ τούτου, είναι συχνά απαραίτητο να καθορίσει τους βαθμούς ελευθερίας σε αρκετά χαμηλή τιμή και την εκτίμηση των άλλων παραμέτρων, λαμβάνοντας αυτό ως δεδομένο. Μερικοί συγγραφείς αναφέρουν ότι οι τιμές μεταξύ 3 και 9 είναι συχνά καλές επιλογές. Venables και Ripley δείχνουν ότι η τιμή του 5 είναι συχνά μια καλή επιλογή.
Πίνακας των επιλεγμένων τιμών
Λίστα των περισσότερων στατιστικών βιβλίων με πίνακες κατανομής t. Σήμερα, ο καλύτερος τρόπος για να μια πλήρως ακριβή κρίσιμη τιμή t ή αθροιστική πιθανότητα είναι η στατιστική συνάρτηση που εφαρμόζεται σε υπολογιστικά φύλλα (Office Excel, OpenOffice Calc, κλπ), ή μια διαδραστική σελίδα υπολογισμού ιστοσελίδων. Οι σχετικές λειτουργίες των φύλλων είναι TDIST και TINV, ενώ σε απευθείας σύνδεση σελίδες υπολογισμού αποθηκεύουμε προβλήματα, όπως τις θέσεις των παραμέτρων ή τα ονόματα των λειτουργιών.Για παράδειγμα, μια σελίδα MediaWiki υποστηριζόμενη από επέκταση R μπορεί εύκολα να δώσει διαδραστικά το αποτέλεσμα κρίσιμων τιμών ή αθροιστικής πιθανότητας, ακόμη και για noncentral t-κατανομή.
Ο παρακάτω πίνακας παραθέτει μερικές επιλεγμένες τιμές για τα t-κατανομή με ν βαθμούς ελευθερίας για μια σειρά από μονόπλευρες ή δύο όψεων κρίσιμες περιοχές. Για παράδειγμα για το πώς να διαβάσετε αυτό το τραπέζι, να λάβουν την τέταρτη σειρά, η οποία αρχίζει με 4. Αυτό σημαίνει ν, ο αριθμός των βαθμών ελευθερίας, είναι 4 (και αν έχουμε να κάνουμε, ως ανωτέρω, με n τιμές με ένα σταθερό ποσό, n = 5). Πάρτε την πέμπτο είσοδο, στη στήλη 95% για μονόπλευρη (90% για δύο όψεις). Η αξία αυτής της εισόδου είναι "2.132". Στη συνέχεια, η πιθανότητα το Τ να είναι μικρότερο από 2.132 είναι 95% ή Pr(−∞ < T < 2.132) = 0.95 .
Αυτό σημαίνει επίσης ότι Pr(−2.132 < T < 2.132) = 0.9.
Αυτή μπορεί να υπολογιστεί από τη συμμετρία της κατανομής,
Pr(T < −2.132) = 1 − Pr(T > −2.132) = 1 − 0.95 = 0.05
και έτσι
Pr(−2.132 < T < 2.132) = 1 − 2(0.05) = 0.9.
Σημειώνεται ότι η τελευταία σειρά δίνει επίσης κρίσιμα σημεία: μια κατανομή t με απείρως πολλούς βαθμούς ελευθερίας είναι μια κανονική κατανομή. (Δείτε τις σχετικές κατανομές παραπάνω).
Η πρώτη στήλη είναι ο αριθμός των βαθμών ελευθερίας.
Μονόπλευρη | 75% | 80% | 85% | 90% | 95% | 97.5% | 99% | 99.5% | 99.75% | 99.9% | 99.95% |
---|---|---|---|---|---|---|---|---|---|---|---|
Δύο όψεων | 50% | 60% | 70% | 80% | 90% | 95% | 98% | 99% | 99.5% | 99.8% | 99.9% |
1 | 1.000 | 1.376 | 1.963 | 3.078 | 6.314 | 12.71 | 31.82 | 63.66 | 127.3 | 318.3 | 636.6 |
2 | 0.816 | 1.080 | 1.386 | 1.886 | 2.920 | 4.303 | 6.965 | 9.925 | 14.09 | 22.33 | 31.60 |
3 | 0.765 | 0.978 | 1.250 | 1.638 | 2.353 | 3.182 | 4.541 | 5.841 | 7.453 | 10.21 | 12.92 |
4 | 0.741 | 0.941 | 1.190 | 1.533 | 2.132 | 2.776 | 3.747 | 4.604 | 5.598 | 7.173 | 8.610 |
5 | 0.727 | 0.920 | 1.156 | 1.476 | 2.015 | 2.571 | 3.365 | 4.032 | 4.773 | 5.893 | 6.869 |
6 | 0.718 | 0.906 | 1.134 | 1.440 | 1.943 | 2.447 | 3.143 | 3.707 | 4.317 | 5.208 | 5.959 |
7 | 0.711 | 0.896 | 1.119 | 1.415 | 1.895 | 2.365 | 2.998 | 3.499 | 4.029 | 4.785 | 5.408 |
8 | 0.706 | 0.889 | 1.108 | 1.397 | 1.860 | 2.306 | 2.896 | 3.355 | 3.833 | 4.501 | 5.041 |
9 | 0.703 | 0.883 | 1.100 | 1.383 | 1.833 | 2.262 | 2.821 | 3.250 | 3.690 | 4.297 | 4.781 |
10 | 0.700 | 0.879 | 1.093 | 1.372 | 1.812 | 2.228 | 2.764 | 3.169 | 3.581 | 4.144 | 4.587 |
11 | 0.697 | 0.876 | 1.088 | 1.363 | 1.796 | 2.201 | 2.718 | 3.106 | 3.497 | 4.025 | 4.437 |
12 | 0.695 | 0.873 | 1.083 | 1.356 | 1.782 | 2.179 | 2.681 | 3.055 | 3.428 | 3.930 | 4.318 |
13 | 0.694 | 0.870 | 1.079 | 1.350 | 1.771 | 2.160 | 2.650 | 3.012 | 3.372 | 3.852 | 4.221 |
14 | 0.692 | 0.868 | 1.076 | 1.345 | 1.761 | 2.145 | 2.624 | 2.977 | 3.326 | 3.787 | 4.140 |
15 | 0.691 | 0.866 | 1.074 | 1.341 | 1.753 | 2.131 | 2.602 | 2.947 | 3.286 | 3.733 | 4.073 |
16 | 0.690 | 0.865 | 1.071 | 1.337 | 1.746 | 2.120 | 2.583 | 2.921 | 3.252 | 3.686 | 4.015 |
17 | 0.689 | 0.863 | 1.069 | 1.333 | 1.740 | 2.110 | 2.567 | 2.898 | 3.222 | 3.646 | 3.965 |
18 | 0.688 | 0.862 | 1.067 | 1.330 | 1.734 | 2.101 | 2.552 | 2.878 | 3.197 | 3.610 | 3.922 |
19 | 0.688 | 0.861 | 1.066 | 1.328 | 1.729 | 2.093 | 2.539 | 2.861 | 3.174 | 3.579 | 3.883 |
20 | 0.687 | 0.860 | 1.064 | 1.325 | 1.725 | 2.086 | 2.528 | 2.845 | 3.153 | 3.552 | 3.850 |
21 | 0.686 | 0.859 | 1.063 | 1.323 | 1.721 | 2.080 | 2.518 | 2.831 | 3.135 | 3.527 | 3.819 |
22 | 0.686 | 0.858 | 1.061 | 1.321 | 1.717 | 2.074 | 2.508 | 2.819 | 3.119 | 3.505 | 3.792 |
23 | 0.685 | 0.858 | 1.060 | 1.319 | 1.714 | 2.069 | 2.500 | 2.807 | 3.104 | 3.485 | 3.767 |
24 | 0.685 | 0.857 | 1.059 | 1.318 | 1.711 | 2.064 | 2.492 | 2.797 | 3.091 | 3.467 | 3.745 |
25 | 0.684 | 0.856 | 1.058 | 1.316 | 1.708 | 2.060 | 2.485 | 2.787 | 3.078 | 3.450 | 3.725 |
26 | 0.684 | 0.856 | 1.058 | 1.315 | 1.706 | 2.056 | 2.479 | 2.779 | 3.067 | 3.435 | 3.707 |
27 | 0.684 | 0.855 | 1.057 | 1.314 | 1.703 | 2.052 | 2.473 | 2.771 | 3.057 | 3.421 | 3.690 |
28 | 0.683 | 0.855 | 1.056 | 1.313 | 1.701 | 2.048 | 2.467 | 2.763 | 3.047 | 3.408 | 3.674 |
29 | 0.683 | 0.854 | 1.055 | 1.311 | 1.699 | 2.045 | 2.462 | 2.756 | 3.038 | 3.396 | 3.659 |
30 | 0.683 | 0.854 | 1.055 | 1.310 | 1.697 | 2.042 | 2.457 | 2.750 | 3.030 | 3.385 | 3.646 |
40 | 0.681 | 0.851 | 1.050 | 1.303 | 1.684 | 2.021 | 2.423 | 2.704 | 2.971 | 3.307 | 3.551 |
50 | 0.679 | 0.849 | 1.047 | 1.299 | 1.676 | 2.009 | 2.403 | 2.678 | 2.937 | 3.261 | 3.496 |
60 | 0.679 | 0.848 | 1.045 | 1.296 | 1.671 | 2.000 | 2.390 | 2.660 | 2.915 | 3.232 | 3.460 |
80 | 0.678 | 0.846 | 1.043 | 1.292 | 1.664 | 1.990 | 2.374 | 2.639 | 2.887 | 3.195 | 3.416 |
100 | 0.677 | 0.845 | 1.042 | 1.290 | 1.660 | 1.984 | 2.364 | 2.626 | 2.871 | 3.174 | 3.390 |
120 | 0.677 | 0.845 | 1.041 | 1.289 | 1.658 | 1.980 | 2.358 | 2.617 | 2.860 | 3.160 | 3.373 |
\( \infty \) | 0.674 | 0.842 | 1.036 | 1.282 | 1.645 | 1.960 | 2.326 | 2.576 | 2.807 | 3.090 | 3.291 |
Ο αριθμός στην αρχή κάθε σειράς του πίνακα παραπάνω είναι ν ο οποίος έχει οριστεί ως ανώτερος του n - 1. Το ποσοστό κατά μήκος της κορυφής είναι 100% (1 - α). Οι αριθμοί στο κύριο σώμα του πίνακα είναι tα, ν . Εάν μια ποσότητα Τ κατανέμεται ως t κατανομή του μαθητή με ν βαθμούς ελευθερίας, τότε υπάρχει μια πιθανότητα 1 - α ότι Τ θα είναι μικρότερη από tα, ν. (Που υπολογίζεται ως ένα μονόπλευρο ή μια μονόπλευρη δοκιμή, σε αντίθεση με ένα two-tailed test).
Για παράδειγμα, δίνεται ένα δείγμα με δείγμα διακύμανσης 2 και μέση τιμή δείγματος 10, που λαμβάνεται από ένα σύνολο δειγμάτων από 11 (10 βαθμοί ελευθερίας), χρησιμοποιώντας τον τύπο
\(\overline{X}_n\pm A\frac{S_n}{\sqrt{n}}. \)
Μπορούμε να προσδιορίσουμε ότι το 90% της εμπιστοσύνης, έχει μια πραγματική μέση τιμή που βρίσκεται κάτω
\( 10+1.37218 \frac{\sqrt{2}}{\sqrt{11}}=10.58510. \)
(Με άλλα λόγια, κατά μέσο όρο, το 90% των περιπτώσεων που ένα ανώτερο όριο υπολογίζεται με τη μέθοδο αυτή, αυτό το ανώτερο όριο υπερβαίνει την πραγματική μέση τιμή.), Και ακόμα κατά εμπιστοσύνης 90%, έχουμε μια πραγματική μέση τιμή η οποία βρίσκεται πάνω από
\(10-1.37218 \frac{\sqrt{2}}{\sqrt{11}}=9.41490. \)
(Με άλλα λόγια, κατά μέσο όρο, το 90% των περιπτώσεων ότι ένα χαμηλότερο όριο υπολογίζεται με τη μέθοδο αυτή, το κατώτερο αυτό όριο βρίσκεται κάτω από την πραγματική μέση τιμή.) Έτσι ώστε σε 80% εμπιστοσύνης (που υπολογίζεται 1-2 × (1 - 90 %) = 80%), να έχουμε μια πραγματική μέση τιμή που βρίσκεται μέσα στο διάστημα
\(\left(10-1.37218 \frac{\sqrt{2}}{\sqrt{11}}, 10+1.37218 \frac{\sqrt{2}}{\sqrt{11}}\right) = \left(9.41490, 10.58510\right). \)
(Με άλλα λόγια, κατά μέσο όρο, το 80% των περιπτώσεων που έχουν άνω και κάτω όρια που υπολογίζονται με τη μέθοδο αυτή, η πραγματική μέση τιμή είναι τόσο κάτω από το ανώτερο όριο και πάνω από το κατώτερο όριο. Αυτό δεν είναι το ίδιο πράγμα όπως λέγεται ότι υπάρχει μια πιθανότητα 80% ότι η πραγματική μέση βρίσκεται ανάμεσα σε ένα συγκεκριμένο ζεύγος των άνω και κάτω ορίων που έχουν υπολογιστεί με τη μέθοδο αυτή, βλέπε διάστημα εμπιστοσύνης και πλάνη εισαγγελέα.)
Για πληροφορίες σχετικά με την αντίστροφη συνάρτηση αθροιστικής κατανομής δείτε ποσοστιαία συνάρτηση.
Δείτε επίσης
Chi-τετράγωνο κατανομή
F-κατανομή
Γάμα κατανομή
Hotelling's T-τετράγωνο κατανομή
Πολυποίκιλη Μαθητή κατανομή
t-στατιστική
Tau-κατανομή, για εσωτερικά μαθητικοποιημένη υπολειμματικήs
Wilks' λάμδα κατανομή
Wishart κατανομή
Παραπομπές
Hurst, Simon. The Characteristic Function of the Student-t Distribution, Financial Mathematics Research Report No. FMRR006-95, Statistics Research Report No. SRR044-95[dead link]
Helmert, F. R. (1875). "Über die Bestimmung des wahrscheinlichen Fehlers aus einer endlichen Anzahl wahrer Beobachtungsfehler". Z. Math. Phys., 20, 300–3.
Helmert, F. R. (1876a). "Über die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und uber einige damit in Zusammenhang stehende Fragen". Z. Math. Phys., 21, 192–218.
Helmert, F. R. (1876b). "Die Genauigkeit der Formel von Peters zur Berechnung des wahrscheinlichen Beobachtungsfehlers directer Beobachtungen gleicher Genauigkeit", Astron. Nachr., 88, 113–32.
Lüroth, J (1876). "Vergleichung von zwei Werten des wahrscheinlichen Fehlers". Astron. Nachr. 87 (14): 209–20. Bibcode:1876AN.....87..209L. doi:10.1002/asna.18760871402.
Pfanzagl, J.; Sheynin, O. (1996). "A forerunner of the t-distribution (Studies in the history of probability and statistics XLIV)". Biometrika 83 (4): 891–898. doi:10.1093/biomet/83.4.891. MR 1766040.
Sheynin, O. (1995). "Helmert's work in the theory of errors". Arch. Hist. Ex. Sci. 49: 73–104. doi:10.1007/BF00374700.
"Student" [William Sealy Gosset] (March 1908). "The probable error of a mean" (PDF). Biometrika 6 (1): 1–25. doi:10.1093/biomet/6.1.1.
"Student" (William Sealy Gosset), original Biometrika paper as a scan
Mortimer, Robert G. (2005) Mathematics for Physical Chemistry, Academic Press. 3 edition. ISBN 0-12-508347-5 (page 326)
Fisher, R. A. (1925). "Applications of "Student's" distribution" (PDF). Metron 5: 90–104.
Walpole, Ronald; Myers, Raymond; Myers, Sharon; Ye, Keying. (2002) Probability and Statistics for Engineers and Scientists. Pearson Education, 7th edition, pg. 237 ISBN 81-7758-404-9
Johnson, N.L., Kotz, S., Balakrishnan, N. (1995) Continuous Univariate Distributions, Volume 2, 2nd Edition. Wiley, ISBN 0-471-58494-0 (Chapter 28)
A. Gelman et al (1995), Bayesian Data Analysis, Chapman & Hall. ISBN 0-412-03991-5. p. 68
Hogg & Craig (1978, Sections 4.4 and 4.8.)
Cochran, W. G. (April 1934). "The distribution of quadratic forms in a normal system, with applications to the analysis of covariance". Mathematical Proceedings of the Cambridge Philosophical Society 30 (2): 178–191. Bibcode:1934PCPS...30..178C. doi:10.1017/S0305004100016595.
Park, Sung Y.; Bera, Anil K. (2009). "Maximum entropy autoregressive conditional heteroskedasticity model" (PDF). Journal of Econometrics (Elsevier): 219–230. Retrieved 2011-06-02.
Bailey, R. W. (1994). "Polar Generation of Random Variates with the t-Distribution". Mathematics of Computation 62 (206): 779–781. doi:10.2307/2153537.
Jackman, Simon (2009). Bayesian Analysis for the Social Sciences. Wiley, σελ. 507.
Bishop, C.M. (2006). Pattern recognition and machine learning. Springer.
Ord, J.K. (1972) Families of Frequency Distributions, Griffin. ISBN 0-85264-137-0 (Table 5.1)
Ord, J.K. (1972) Families of Frequency Distributions, Griffin. ISBN 0-85264-137-0 (Chapter 5)
Από τη ελληνική Βικιπαίδεια http://el.wikipedia.org . Όλα τα κείμενα είναι διαθέσιμα υπό την GNU Free Documentation License