Der Schülertisch ist fertig. Student-t-Test-Verteilung zum Testen der Hypothese über den Mittelwert und zur Berechnung des Konfidenzintervalls in MS Excel

Verteilungstabelle für Studenten

Wahwerden für große Stichproben aus einer unendlich großen Grundgesamtheit verwendet. Aber schon bei (n)< 100 получается Несоответствие между

tabellarische Daten und Grenzwahrscheinlichkeit; bei (n)< 30 погрешность становится значительной. Несоответствие вызывается главным образом характером распределения единиц генеральной совокупности. При большом объеме выборки особенность распределения в гене-

die Gesamtbevölkerung spielt keine Rolle, da sich die Verteilung der Abweichungen des Stichprobenindikators vom Gesamtmerkmal bei einer großen Stichprobe immer als normal herausstellt.

nom. In kleinen Stichproben (n)< 30 характер распределения генеральной совокупности сказывается на распределении ошибок выборки. Поэтому для расчета ошибки выборки при небольшом объеме наблюдения (уже менее 100 единиц) отбор должен проводиться из со-

Population mit Normalverteilung. Die Theorie der kleinen Stichproben wurde zu Beginn des 20. Jahrhunderts vom englischen Statistiker W. Gosset (der unter dem Pseudonym Student schrieb) entwickelt. IN

1908 konstruierte er eine spezielle Verteilung, die es ermöglicht, auch bei kleinen Stichproben (t) und die Konfidenzwahrscheinlichkeit F(t) zu korrelieren. Für (n) > 100 liefern Student-Verteilungstabellen die gleichen Ergebnisse wie Laplace-Wahfür 30< (n ) <

100 Unterschiede sind vernachlässigbar. Daher umfassen praktisch kleine Proben Proben mit einem Volumen von weniger als 30 Einheiten (natürlich gilt eine Probe mit einem Volumen von mehr als 100 Einheiten als groß).

Die Verwendung kleiner Stichproben ist in einigen Fällen auf die Art der befragten Bevölkerung zurückzuführen. Daher ist es in der Zuchtarbeit einfacher, mit einer kleinen Anzahl „reine“ Erfahrungen zu erzielen

Grundstücke. Das Produktions- und Wirtschaftsexperiment im Zusammenhang mit den wirtschaftlichen Kosten wird auch in einer kleinen Anzahl von Versuchen durchgeführt. Wie bereits erwähnt, können bei einer kleinen Stichprobe sowohl die Konfidenzwahrscheinlichkeiten als auch die Konfidenzgrenzen des allgemeinen Mittelwerts nur für eine normalverteilte Grundgesamtheit berechnet werden.

Die Wahrscheinlichkeitsdichte der Student-Verteilung wird durch die Funktion beschrieben.

1 + t2

f (t ,n) := Bn

n − 1

t – aktuelle Variable; n – Stichprobengröße;

B ist eine Größe, die nur von (n) abhängt.

Die Student-Verteilung hat nur einen Parameter: (d.f.) – die Anzahl der Freiheitsgrade (manchmal auch mit (k) bezeichnet). Diese Verteilung ist wie die Normalverteilung symmetrisch zum Punkt (t) = 0, aber flacher. Wenn die Stichprobengröße und damit die Anzahl der Freiheitsgrade zunimmt, nähert sich die Student-Verteilung schnell dem Normalzustand an. Die Anzahl der Freiheitsgrade ist gleich der Anzahl der einzelnen Merkmalswerte, die verteilt werden müssen

davon ausgehen, das gewünschte Merkmal zu ermitteln. Um die Varianz zu berechnen, muss daher der Durchschnittswert bekannt sein. Verwenden Sie daher bei der Berechnung der Varianz (d.f.) = n - 1.

Die Verteilungstabellen der Studierenden werden in zwei Versionen veröffentlicht:

1. Ähnlich wie bei den Wahsind die Werte ( t) und die entsprechenden

aktuelle Wahrscheinlichkeiten F(t) für unterschiedliche Anzahlen von Freiheitsgraden;

2. Für die am häufigsten verwendeten Konfidenzwahrscheinlichkeiten werden Werte (t) angegeben

0,70; 0,75; 0,80; 0,85; 0,90; 0,95 und 0,99 oder für 1 - 0,70 = 0,3; 1 - 0,80 = 0,2; …… 1 - 0,99 = 0,01.

3. mit unterschiedlich vielen Freiheitsgraden. Eine solche Tabelle finden Sie im Anhang

(Tabelle 1 - 20) sowie der Wert (t) - Schülertest bei einem Signifikanzniveau von 0,7

Eines der bekanntesten statistischen Tools ist der Student-t-Test. Es wird verwendet, um die statistische Signifikanz verschiedener paarweiser Größen zu messen. Microsoft Excel verfügt über eine spezielle Funktion zur Berechnung dieses Indikators. Erfahren Sie, wie Sie den Student-t-Test in Excel berechnen.

Aber zuerst wollen wir herausfinden, was der Student-t-Test im Allgemeinen ist. Mit diesem Indikator wird die Gleichheit der Durchschnittswerte zweier Stichproben überprüft. Das heißt, es bestimmt die Bedeutung der Unterschiede zwischen zwei Datengruppen. Gleichzeitig wird zur Bestimmung dieses Kriteriums eine ganze Reihe von Methoden eingesetzt. Der Indikator kann unter Berücksichtigung einer einseitigen oder zweiseitigen Verteilung berechnet werden.

Berechnung eines Indikators in Excel

Kommen wir nun direkt zur Frage, wie dieser Indikator in Excel berechnet wird. Dies kann über die Funktion erfolgen STUDENTENTEST. In 2007 und früheren Versionen von Excel hieß es TTEST. Aus Kompatibilitätsgründen wurde es jedoch in späteren Versionen beibehalten, es wird jedoch weiterhin empfohlen, in diesen eine modernere Version zu verwenden - STUDENTENTEST. Diese Funktion kann auf drei Arten genutzt werden, auf die im Folgenden näher eingegangen wird.

Methode 1: Funktionsassistent

Der einfachste Weg, diesen Indikator zu berechnen, ist der Funktionsassistent.


Die Berechnung wird durchgeführt und das Ergebnis auf dem Bildschirm in einer vorgewählten Zelle angezeigt.

Methode 2: Arbeiten mit der Registerkarte „Formeln“.

Funktion STUDENTENTEST kann auch über den Reiter aufgerufen werden „Formeln“ mit einem speziellen Knopf auf dem Band.


Methode 3: Manuelle Eingabe

Formel STUDENTENTEST kann auch manuell in eine beliebige Zelle des Arbeitsblatts oder in die Funktionszeile eingegeben werden. Seine syntaktische Form sieht folgendermaßen aus:

STUDENTENTEST (Array1, Array2, Tails, Typ)

Bei der Analyse der ersten Methode wurde berücksichtigt, was jedes der Argumente bedeutet. Diese Werte sollten in diese Funktion eingesetzt werden.

Nachdem die Daten eingegeben wurden, drücken Sie die Taste Eingeben um das Ergebnis auf dem Bildschirm anzuzeigen.

Wie Sie sehen, ist die Berechnung des Schülertests in Excel sehr einfach und schnell. Die Hauptsache ist, dass der Benutzer, der die Berechnungen durchführt, verstehen muss, was er ist und welche Eingabedaten wofür verantwortlich sind. Die direkte Berechnung führt das Programm selbst durch.

In welchen Fällen kann der Student-t-Test verwendet werden?

Um den Student-T-Test anwenden zu können, müssen die Originaldaten vorhanden sein Normalverteilung. Bei der Anwendung eines Zwei-Stichproben-Kriteriums auf unabhängige Stichproben ist es ebenfalls erforderlich, die Bedingung zu erfüllen Gleichheit (Homoskedastizität) der Varianzen.

Wenn diese Bedingungen nicht erfüllt sind, sollten beim Vergleich der Stichprobenmittelwerte ähnliche Methoden verwendet werden. nichtparametrische Statistik, unter denen die bekanntesten sind Mann-Whitney-U-Test(als Zwei-Stichproben-Test für unabhängige Stichproben) und Vorzeichenkriterium Und Wilcoxon-Test(wird bei abhängigen Stichproben verwendet).

Um Durchschnittswerte zu vergleichen, wird der Student-t-Test anhand der folgenden Formel berechnet:

Wo M 1- arithmetisches Mittel der ersten verglichenen Population (Gruppe), M 2- arithmetisches Mittel der zweiten verglichenen Population (Gruppe), m 1- durchschnittlicher Fehler des ersten arithmetischen Mittels, m 2- durchschnittlicher Fehler des zweiten arithmetischen Mittels.

Wie ist der Student-t-Testwert zu interpretieren?

Der resultierende Student-t-Test-Wert muss korrekt interpretiert werden. Dazu müssen wir die Anzahl der Probanden in jeder Gruppe kennen (n 1 und n 2). Ermitteln der Anzahl der Freiheitsgrade F nach folgender Formel:

f = (n 1 + n 2) - 2

Anschließend ermitteln wir den kritischen Wert des Student-t-Tests für das erforderliche Signifikanzniveau (z. B. p = 0,05) und für eine gegebene Anzahl von Freiheitsgraden F laut Tabelle ( siehe unten).

Wir vergleichen die kritischen und berechneten Werte des Kriteriums:

· Wenn der berechnete Wert des Student-t-Tests gleich oder größer Kritisch, aus der Tabelle herausgefunden, schließen wir, dass die Unterschiede zwischen den verglichenen Werten statistisch signifikant sind.

· Wenn der Wert des berechneten Student-T-Tests weniger tabellarisch, was bedeutet, dass die Unterschiede zwischen den verglichenen Werten statistisch nicht signifikant sind.

Beispiel für die Berechnung des Student-T-Tests

Um die Wirksamkeit eines neuen Eisenpräparats zu untersuchen, wurden zwei Gruppen von Patienten mit Anämie ausgewählt. In der ersten Gruppe erhielten die Patienten zwei Wochen lang ein neues Medikament, in der zweiten Gruppe erhielten sie ein Placebo. Anschließend wurden die Hämoglobinwerte im peripheren Blut gemessen. In der ersten Gruppe betrug der durchschnittliche Hämoglobinspiegel 115,4 ± 1,2 g/l und in der zweiten Gruppe 103,7 ± 2,3 g/l (Daten werden im Format dargestellt). M±m) haben die verglichenen Populationen eine Normalverteilung. Die Zahl der ersten Gruppe betrug 34 und die der zweiten 40 Patienten. Es ist notwendig, eine Schlussfolgerung über die statistische Signifikanz der erzielten Unterschiede und die Wirksamkeit des neuen Eisenpräparats zu ziehen.

Lösung: Um die Signifikanz von Unterschieden zu beurteilen, verwenden wir den Student-T-Test, der als Differenz der Mittelwerte dividiert durch die Summe der quadrierten Fehler berechnet wird:

Nach Durchführung der Berechnungen ergab sich ein t-Test-Wert von 4,51. Wir ermitteln die Anzahl der Freiheitsgrade als (34 + 40) – 2 = 72. Wir vergleichen den resultierenden Student-t-Test-Wert von 4,51 mit dem in der Tabelle angegebenen kritischen Wert bei p = 0,05: 1,993. Da der berechnete Wert des Kriteriums größer als der kritische Wert ist, schließen wir, dass die beobachteten Unterschiede statistisch signifikant sind (Signifikanzniveau S<0,05).

Die Fisher-Verteilung ist die Verteilung einer Zufallsvariablen

Wo sind die Zufallsvariablen? X 1 Und X 2 sind unabhängig und haben Chi-Quadrat-Verteilungen mit der Anzahl der Freiheitsgrade k 1 Und k 2 jeweils. Gleichzeitig ist das Paar (k 1 , k 2)– ein Paar „Freiheitsgrade“ der Fisher-Verteilung, nämlich k 1 ist die Anzahl der Freiheitsgrade des Zählers und k 2– Anzahl der Freiheitsgrade des Nenners. Verteilung einer Zufallsvariablen F benannt nach dem großen englischen Statistiker R. Fisher (1890-1962), der es in seinen Werken aktiv verwendete.

Die Fisher-Verteilung wird beim Testen von Hypothesen über die Angemessenheit des Modells in der Regressionsanalyse, der Varianzgleichheit und bei anderen Problemen der angewandten Statistik verwendet.

Tabelle der kritischen Werte des Schülers.

Beginn des Formulars

Anzahl der Freiheitsgrade, f T-Testwert des Schülers bei p=0,05
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
2.042
2.040
2.037
2.035
2.032
2.030
2.028
2.026
2.024
40-41 2.021
42-43 2.018
44-45 2.015
46-47 2.013
48-49 2.011
50-51 2.009
52-53 2.007
54-55 2.005
56-57 2.003
58-59 2.002
60-61 2.000
62-63 1.999
64-65 1.998
66-67 1.997
68-69 1.995
70-71 1.994
72-73 1.993
74-75 1.993
76-77 1.992
78-79 1.991
80-89 1.990
90-99 1.987
100-119 1.984
120-139 1.980
140-159 1.977
160-179 1.975
180-199 1.973
1.972
1.960

​ Student-T-Test ist eine allgemeine Bezeichnung für eine Klasse von Methoden zum statistischen Testen von Hypothesen (statistische Tests) basierend auf der Student-Verteilung. Der t-Test wird am häufigsten verwendet, um die Gleichheit der Mittelwerte in zwei Stichproben zu testen.

1. Geschichte der Entwicklung des t-Tests

Dieses Kriterium wurde entwickelt William Gossett um die Qualität des Bieres im Guinness-Unternehmen zu beurteilen. Aufgrund der Verpflichtung gegenüber dem Unternehmen zur Geheimhaltung von Geschäftsgeheimnissen wurde Gossets Artikel 1908 in der Zeitschrift Biometrics unter dem Pseudonym „Student“ veröffentlicht.

2. Wofür wird der Student-t-Test verwendet?

Der Student-T-Test wird verwendet, um die statistische Signifikanz von Mittelwertunterschieden zu bestimmen. Kann sowohl beim Vergleich unabhängiger Stichproben verwendet werden ( zum Beispiel Gruppen von Diabetikern und gesunde Gruppen) und beim Vergleich verwandter Populationen ( zum Beispiel die durchschnittliche Herzfrequenz bei denselben Patienten vor und nach der Einnahme eines Antiarrhythmikums).

3. In welchen Fällen kann der Student-t-Test verwendet werden?

Um den Student-T-Test anwenden zu können, müssen die Originaldaten vorhanden sein Normalverteilung. Bei der Anwendung eines Zwei-Stichproben-Kriteriums auf unabhängige Stichproben ist es ebenfalls erforderlich, die Bedingung zu erfüllen Gleichheit (Homoskedastizität) der Varianzen.

Wenn diese Bedingungen nicht erfüllt sind, sollten beim Vergleich der Stichprobenmittelwerte ähnliche Methoden verwendet werden. nichtparametrische Statistik, unter denen die bekanntesten sind Mann-Whitney-U-Test(als Zwei-Stichproben-Test für unabhängige Stichproben) und Vorzeichenkriterium Und Wilcoxon-Test(wird bei abhängigen Stichproben verwendet).

4. Wie berechnet man den Student-t-Test?

Um Durchschnittswerte zu vergleichen, wird der Student-t-Test anhand der folgenden Formel berechnet:

Wo M 1- arithmetisches Mittel der ersten verglichenen Population (Gruppe), M 2- arithmetisches Mittel der zweiten verglichenen Population (Gruppe), m 1- durchschnittlicher Fehler des ersten arithmetischen Mittels, m 2- durchschnittlicher Fehler des zweiten arithmetischen Mittels.

5. Wie ist der Student-t-Testwert zu interpretieren?

Der resultierende Student-t-Test-Wert muss korrekt interpretiert werden. Dazu müssen wir die Anzahl der Probanden in jeder Gruppe kennen (n 1 und n 2). Ermitteln der Anzahl der Freiheitsgrade F nach folgender Formel:

f = (n 1 + n 2) - 2

Anschließend ermitteln wir den kritischen Wert des Student-t-Tests für das erforderliche Signifikanzniveau (z. B. p = 0,05) und für eine gegebene Anzahl von Freiheitsgraden F laut Tabelle ( siehe unten).

Wir vergleichen die kritischen und berechneten Werte des Kriteriums:

  • Wenn der berechnete Wert des Student-t-Tests gleich oder größer Kritisch, aus der Tabelle herausgefunden, schließen wir, dass die Unterschiede zwischen den verglichenen Werten statistisch signifikant sind.
  • Wenn der Wert des berechneten Student-T-Tests weniger tabellarisch, was bedeutet, dass die Unterschiede zwischen den verglichenen Werten statistisch nicht signifikant sind.

6. Beispiel für die Berechnung des Student-t-Tests

Um die Wirksamkeit eines neuen Eisenpräparats zu untersuchen, wurden zwei Gruppen von Patienten mit Anämie ausgewählt. In der ersten Gruppe erhielten die Patienten zwei Wochen lang ein neues Medikament, in der zweiten Gruppe erhielten sie ein Placebo. Anschließend wurden die Hämoglobinwerte im peripheren Blut gemessen. In der ersten Gruppe betrug der durchschnittliche Hämoglobinspiegel 115,4 ± 1,2 g/l und in der zweiten Gruppe 103,7 ± 2,3 g/l (Daten werden im Format dargestellt). M±m) haben die verglichenen Populationen eine Normalverteilung. Die Zahl der ersten Gruppe betrug 34 und die der zweiten 40 Patienten. Es ist notwendig, eine Schlussfolgerung über die statistische Signifikanz der erzielten Unterschiede und die Wirksamkeit des neuen Eisenpräparats zu ziehen.

Lösung: Um die Signifikanz von Unterschieden zu beurteilen, verwenden wir den Student-T-Test, der als Differenz der Mittelwerte dividiert durch die Summe der quadrierten Fehler berechnet wird:

Nach Durchführung der Berechnungen ergab sich ein t-Test-Wert von 4,51. Wir ermitteln die Anzahl der Freiheitsgrade als (34 + 40) – 2 = 72. Wir vergleichen den resultierenden Student-t-Test-Wert von 4,51 mit dem in der Tabelle angegebenen kritischen Wert bei p = 0,05: 1,993. Da der berechnete Wert des Kriteriums größer als der kritische Wert ist, schließen wir, dass die beobachteten Unterschiede statistisch signifikant sind (Signifikanzniveau S<0,05).

Mit der Methode können Sie die Hypothese testen, dass die Durchschnittswerte zweier allgemeiner Populationen, aus denen die verglichenen Populationen extrahiert werden, ermittelt werden abhängig Proben unterscheiden sich voneinander. Die Annahme einer Abhängigkeit bedeutet meist, dass das Merkmal zweimal an derselben Stichprobe gemessen wird, beispielsweise vor und nach der Intervention. Im allgemeinen Fall wird jedem Vertreter einer Stichprobe ein Vertreter einer anderen Stichprobe zugeordnet (sie werden paarweise zusammengefasst), sodass die beiden Datenreihen positiv miteinander korrelieren. Schwächere Arten der Stichprobenabhängigkeit: Stichprobe 1 – Ehemänner, Stichprobe 2 – ihre Ehefrauen; Stichprobe 1 – einjährige Kinder, Stichprobe 2 besteht aus Zwillingen der Kinder in Stichprobe 1 usw.

Überprüfbare statistische Hypothese, wie im vorherigen Fall, H 0: M 1 = M 2(Die Durchschnittswerte in den Stichproben 1 und 2 sind gleich.) Bei Ablehnung wird die Alternativhypothese akzeptiert M 1 mehr weniger) M 2.

Erste Annahmen für statistische Tests:

□ jeder Vertreter einer Stichprobe (aus einer Allgemeinbevölkerung) ist mit einem Vertreter einer anderen Stichprobe (aus einer anderen Allgemeinbevölkerung) verbunden;

□ Daten aus zwei Stichproben sind positiv korreliert (bilden Paare);

□ die Verteilung des untersuchten Merkmals in beiden Stichproben dem Normalgesetz entspricht.

Quelldatenstruktur: Für jedes Objekt (für jedes Paar) gibt es zwei Werte des untersuchten Merkmals.

Einschränkungen: die Verteilung des Merkmals in beiden Stichproben sollte nicht wesentlich vom Normalwert abweichen; die Daten der beiden Messungen, die beiden Proben entsprechen, sind positiv korreliert.

Alternativen: Wilcoxon-T-Test, wenn die Verteilung für mindestens eine Probe deutlich vom Normalwert abweicht; t-Student-Test für unabhängige Stichproben – wenn die Daten für die beiden Stichproben nicht positiv korrelieren.

Formel denn der empirische Wert des Student-t-Tests spiegelt die Tatsache wider, dass die Analyseeinheit für Unterschiede ist Unterschied (Verschiebung) charakteristische Werte für jedes Beobachtungspaar. Dementsprechend wird für jedes der N Attributwertpaare zunächst die Differenz berechnet d i = x 1 i - x 2 i.

(3) wo M d – durchschnittliche Wertedifferenz; σ d – Standardabweichung der Differenzen.

Berechnungsbeispiel:

Angenommen, während der Prüfung der Wirksamkeit des Trainings wurde jedem der 8 Gruppenmitglieder die Frage gestellt: „Wie oft stimmen Ihre Meinungen mit den Meinungen der Gruppe überein?“ - zweimal, vor und nach dem Training. Für die Antworten wurde eine 10-Punkte-Skala verwendet: 1 – nie, 5 – die Hälfte der Zeit, 10 – immer. Es wurde die Hypothese getestet, dass durch das Training das Selbstwertgefühl der Konformität (der Wunsch, wie andere in der Gruppe zu sein) der Teilnehmer zunehmen würde (α = 0,05). Erstellen wir eine Tabelle für Zwischenberechnungen (Tabelle 3).

Tisch 3

Das arithmetische Mittel für die Differenz M d = (-6)/8= -0,75. Subtrahieren Sie diesen Wert von jedem d (der vorletzten Spalte der Tabelle).

Die Formel für die Standardabweichung unterscheidet sich nur dadurch, dass darin d anstelle von X vorkommt. Wir ersetzen alle erforderlichen Werte und erhalten

σ d = = 0,886.

Schritt 1. Berechnen Sie den empirischen Wert des Kriteriums mithilfe der Formel (3): durchschnittliche Differenz MD= -0,75; Standardabweichung σ d = 0,886; t e = 2,39; df = 7.

Schritt 2. Anhand der Tabelle der kritischen Werte des t-Student-Kriteriums bestimmen wir das p-Signifikanzniveau. Für df = 7 liegt der Erfahrungswert zwischen den kritischen Werten für p = 0,05 und p – 0,01. Deshalb, S< 0,05.

df R
0,05 0,01 0,001
2,365 3,499 5,408

Schritt 3. Wir treffen eine statistische Entscheidung und formulieren eine Schlussfolgerung. Die statistische Hypothese der Mittelgleichheit wird abgelehnt. Fazit: Der Indikator der Selbsteinschätzung der Konformität der Teilnehmer nach dem Training stieg statistisch signifikant an (auf Signifikanzniveau S< 0,05).

Parametrische Methoden umfassen Vergleich der Varianzen zweier Stichproben nach dem Kriterium F-Fisher. Manchmal führt diese Methode zu wertvollen, aussagekräftigen Schlussfolgerungen, und im Falle des Vergleichs von Mittelwerten für unabhängige Stichproben ist es der Vergleich von Varianzen obligatorisch Verfahren.

Berechnen F em Sie müssen das Verhältnis der Varianzen der beiden Stichproben ermitteln, und zwar so, dass die größere Varianz im Zähler und die kleinere im Nenner steht.

Vergleich von Varianzen. Mit dieser Methode können Sie die Hypothese testen, dass sich die Varianzen der beiden Populationen, aus denen die verglichenen Stichproben gezogen werden, voneinander unterscheiden. Getestete statistische Hypothese H 0: σ 1 2 = σ 2 2 (die Varianz in Stichprobe 1 ist gleich der Varianz in Stichprobe 2). Bei Ablehnung wird die Alternativhypothese akzeptiert, dass eine Varianz größer ist als die andere.

Erste Annahmen: Zwei Stichproben werden zufällig aus verschiedenen Populationen mit einer Normalverteilung des untersuchten Merkmals gezogen.

Quelldatenstruktur: Das untersuchte Merkmal wird in Objekten (Probanden) gemessen, die jeweils zu einer der beiden verglichenen Stichproben gehören.

Einschränkungen: Die Verteilungen des Merkmals in beiden Stichproben weichen nicht signifikant vom Normalwert ab.

Alternative Methode: Levene-Test, dessen Verwendung keine Überprüfung der Normalitätsannahme erfordert (wird im SPSS-Programm verwendet).

Formel für den empirischen Wert des Fisher-F-Tests:

(4)

wo σ 1 2 - große Streuung und σ 2 2 - kleinere Streuung. Da nicht im Voraus bekannt ist, welche Streuung größer ist, wird sie zur Bestimmung des p-Niveaus verwendet Tabelle der kritischen Werte für ungerichtete Alternativen. Wenn F e > F Kp für die entsprechende Anzahl an Freiheitsgraden R < 0,05 и статистическую гипотезу о равенстве дисперсий можно отклонить (для α = 0,05).

Berechnungsbeispiel:

Den Kindern wurden regelmäßige Rechenaufgaben gestellt, woraufhin einer zufällig ausgewählten Hälfte der Schüler mitgeteilt wurde, dass sie den Test nicht bestanden hätten, und dem Rest wurde das Gegenteil mitgeteilt. Anschließend wurde jedes Kind gefragt, wie viele Sekunden es brauchen würde, um ein ähnliches Problem zu lösen. Der Experimentator berechnete die Differenz zwischen der Anrufzeit des Kindes und dem Ergebnis der erledigten Aufgabe (in Sekunden). Es wurde erwartet, dass die Botschaft des Scheiterns zu einer gewissen Beeinträchtigung des Selbstwertgefühls des Kindes führen würde. Die getestete Hypothese (auf dem Niveau α = 0,005) war, dass die Varianz des aggregierten Selbstwertgefühls nicht von Erfolgs- oder Misserfolgsberichten abhängt (H 0: σ 1 2 = σ 2 2).

Folgende Daten wurden erhoben:


Schritt 1. Berechnen Sie den empirischen Wert des Kriteriums und die Anzahl der Freiheitsgrade mithilfe der Formeln (4):

Schritt 2. Gemäß der Tabelle der kritischen Werte des Fisher-F-Kriteriums für ungerichtet Alternativen, für die wir den kritischen Wert ermitteln df-Nummer = 11; Ich weiß es= 11. Einen kritischen Wert gibt es allerdings nur für df-Nummer= 10 und df weiß = 12. Es ist unmöglich, eine größere Anzahl von Freiheitsgraden anzunehmen, daher nehmen wir den kritischen Wert für df-Nummer= 10: Für R = 0,05 F Kp = 3,526; Für R = 0,01 F Kp = 5,418.

Schritt 3. Eine statistische Entscheidung treffen und eine aussagekräftige Schlussfolgerung ziehen. Da der Erfahrungswert den kritischen Wert für überschreitet R= 0,01 (und noch mehr für p = 0,05), dann in diesem Fall p< 0,01 и принимается альтернативная гипо­теза: дисперсия в группе 1 превышает дисперсию в группе 2 (R< 0,01). Folglich ist die Unzulänglichkeit des Selbstwertgefühls nach einer Nachricht über das Scheitern höher als nach einer Nachricht über den Erfolg.

/ Praktische Statistiken / Referenzmaterialien / Schüler-T-Test-Werte

BedeutungT -Student-t-Test mit Signifikanzniveaus von 0,10, 0,05 und 0,01

ν – Freiheitsgrade der Variation

Standard-Student-t-Testwerte

Anzahl der Freiheitsgrade

Signifikanzstufen

Anzahl der Freiheitsgrade

Signifikanzstufen

Tisch XI

Standardwerte des Fisher-Tests zur Beurteilung der Signifikanz von Unterschieden zwischen zwei Proben

Freiheitsgrade

Signifikanzniveau

Freiheitsgrade

Signifikanzniveau

Schüler-T-Test

Schüler-T-Test- ein allgemeiner Name für eine Klasse von Methoden zum statistischen Testen von Hypothesen (statistische Tests) basierend auf der Student-Verteilung. Der t-Test wird am häufigsten verwendet, um die Gleichheit der Mittelwerte in zwei Stichproben zu testen.

T-Statistik wird normalerweise nach dem folgenden allgemeinen Prinzip erstellt: Der Zähler ist eine Zufallsvariable mit einem mathematischen Erwartungswert von Null (wenn die Nullhypothese erfüllt ist), und der Nenner ist die Stichprobenstandardabweichung dieser Zufallsvariablen, die als Quadratwurzel von erhalten wird die Schätzung der ungemischten Varianz.

Geschichte

Dieses Kriterium wurde von William Gossett entwickelt, um die Qualität von Bier bei der Firma Guinness zu bewerten. Im Zusammenhang mit Verpflichtungen gegenüber dem Unternehmen zur Geheimhaltung von Geschäftsgeheimnissen (das Guinness-Management betrachtete den Einsatz statistischer Geräte in seiner Arbeit als solchen) wurde Gossets Artikel 1908 in der Zeitschrift Biometrics unter dem Pseudonym „Student“ veröffentlicht.

Datenanforderungen

Um dieses Kriterium anwenden zu können, ist es erforderlich, dass die Originaldaten eine Normalverteilung aufweisen. Bei der Anwendung eines Zwei-Stichproben-Tests für unabhängige Stichproben muss außerdem die Bedingung der Varianzgleichheit eingehalten werden. Für Situationen mit ungleichen Varianzen gibt es jedoch Alternativen zum Student-t-Test.

Für einen genauen t (\displaystyle t)-Test ist die Anforderung einer Normalverteilung der Daten erforderlich. Aber auch bei anderen Datenverteilungen ist es möglich, t (\displaystyle t) -Statistiken zu verwenden. In vielen Fällen hat diese Statistik asymptotisch eine Standardnormalverteilung – N (0, 1) (\displaystyle N(0,1)) , sodass Quantile dieser Verteilung verwendet werden können. Allerdings werden auch in diesem Fall häufig Quantile nicht der Standardnormalverteilung, sondern der entsprechenden Student-Verteilung verwendet, wie im exakten t (\displaystyle t)-Test. Sie sind asymptotisch äquivalent, aber in kleinen Stichproben sind die Konfidenzintervalle der Student-Verteilung breiter und zuverlässiger.

T-Test bei einer Stichprobe

Wird verwendet, um die Nullhypothese H 0: E (X) = m (\displaystyle H_(0):E(X)=m) über die Gleichheit des mathematischen Erwartungswerts E (X) (\displaystyle E(X)) zu zu testen ein bekannter Wert m ( \displaystyle m) .

Wenn die Nullhypothese erfüllt ist, gilt offensichtlich E (X ¯) = m (\displaystyle E((\overline (X)))=m) . Unter Berücksichtigung der angenommenen Unabhängigkeit der Beobachtungen gilt V (X ¯) = σ 2 / n (\displaystyle V((\overline (X)))=\sigma ^(2)/n). Unter Verwendung einer erwartungstreuen Varianzschätzung s X 2 = ∑ t = 1 n (X t − n )(X_(t)-(\overline (X)))^(2)/(n-1)) erhalten wir die folgende t-Statistik:

t = X ¯ − m s X / n (\displaystyle t=(\frac ((\overline (X))-m)(s_(X)/(\sqrt (n)))))

Unter der Nullhypothese ist die Verteilung dieser Statistik t (n − 1) (\displaystyle t(n-1)). Wenn folglich der absolute Wert der Statistik den kritischen Wert einer bestimmten Verteilung (auf einem bestimmten Signifikanzniveau) überschreitet, wird die Nullhypothese abgelehnt.

T-Test bei zwei Stichproben für unabhängige Stichproben

Es seien zwei unabhängige Stichproben von Volumina n 1, n 2 (\displaystyle n_(1)~,~n_(2)) normalverteilter Zufallsvariablen X 1, X 2 (\displaystyle X_(1),~X_(2). )). Es ist notwendig, die Nullhypothese der Gleichheit der mathematischen Erwartungen dieser Zufallsvariablen H 0: M 1 = M 2 (\displaystyle H_(0):~M_(1)=M_(2)) anhand von Beispieldaten zu testen.

Betrachten Sie den Unterschied zwischen den Stichprobenmittelwerten Δ = X ¯ 1 − X ¯ 2 (\displaystyle \Delta =(\overline (X))_(1)-(\overline (X))_(2)). Wenn die Nullhypothese wahr ist, ist offensichtlich E (Δ) = M 1 − M 2 = 0 (\displaystyle E(\Delta)=M_(1)-M_(2)=0). Die Varianz dieser Differenz ist basierend auf der Unabhängigkeit der Stichproben gleich: V (Δ) = σ 1 2 n 1 + σ 2 2 n 2 (\displaystyle V(\Delta)=(\frac (\sigma _(1 )^(2))( n_(1)))+(\frac (\sigma _(2)^(2))(n_(2)))) . Dann verwenden wir die erwartungstreue Varianzschätzung s 2 = ∑ t = 1 n (X t − X ¯) 2 n − 1 (\displaystyle s^(2)=(\frac (\sum _(t=1)^(n) ( + s 2 2 n 2 (\ displaystyle s_(\Delta )^(2)=(\frac (s_(1)^(2))(n_(1)))+(\frac (s_(2)^( 2))(n_(2) ))) . Daher lautet die t-Statistik zum Testen der Nullhypothese

T = X ¯ 1 − 2))(\sqrt ((\frac (s_(1)^(2))(n_(1)))+(\frac (s_(2)^(2))(n_(2))))) ))

Wenn die Nullhypothese wahr ist, hat diese Statistik eine Verteilung t (d f) (\displaystyle t(df)), wobei d f = (s 1 2 / n 1 + s 2 2 / n 2) 2 (s 1 2 / n 1) 2 / (n 1 − 1) + (s 2 2 / n 2) 2 / (n 2 − 1) (\displaystyle df=(\frac ((s_(1)^(2)/n_(1) +s_(2 )^(2)/n_(2))^(2))((s_(1)^(2)/n_(1))^(2)/(n_(1)-1)+ (s_(2 )^(2)/n_(2))^(2)/(n_(2)-1))))

Fall gleicher Varianz

Wenn davon ausgegangen wird, dass die Varianzen der Stichproben gleich sind, dann

V (Δ) = σ 2 (1 n 1 + 1 n 2) (\displaystyle V(\Delta)=\sigma ^(2)\left((\frac (1)(n_(1)))+(\ frac (1)(n_(2)))\right))

Dann ist die t-Statistik:

T = X ¯ 1 − X ¯ 2 s X 1 n 1 + 1 n 2 , s Anzeigestil t=(\frac ((\overline (X))_(1)-(\overline (X))_(2))(s_(X)(\sqrt ((\frac (1)(n_(1 )))+(\frac (1)(n_(2))))))~,~~s_(X)=(\sqrt (\frac ((n_(1)-1)s_(1)^ ( 2)+(n_(2)-1)s_(2)^(2))(n_(1)+n_(2)-2))))

Diese Statistik hat die Verteilung t (n 1 + n 2 − 2) (\displaystyle t(n_(1)+n_(2)-2))

T-Test bei zwei Stichproben für abhängige Stichproben

Um den empirischen Wert des t (\displaystyle t) -Kriteriums beim Testen einer Hypothese über Unterschiede zwischen zwei abhängigen Stichproben (z. B. zwei Stichproben desselben Tests mit einem Zeitintervall) zu berechnen, wird die folgende Formel verwendet:

T = M d s d / n (\displaystyle t=(\frac (M_(d))(s_(d)/(\sqrt (n)))))

Dabei ist M d (\displaystyle M_(d)) die durchschnittliche Differenz der Werte, s d (\displaystyle s_(d)) die Standardabweichung der Differenzen und n die Anzahl der Beobachtungen

Diese Statistik hat eine Verteilung t (n − 1) (\displaystyle t(n-1)) .

Testen einer linearen Einschränkung für lineare Regressionsparameter

Der t-Test kann auch eine beliebige (einzelne) lineare Einschränkung für die Parameter einer linearen Regression testen, die durch die Methode der kleinsten Quadrate geschätzt wird. Es sei notwendig, die Hypothese H 0: c T b = a (\displaystyle H_(0):c^(T)b=a) zu testen. Wenn die Nullhypothese erfüllt ist, gilt offensichtlich E (c T b ^ − a) = c T E (b ^) − a = 0 (\displaystyle E(c^(T)(\hat (b))-a)= c^( T)E((\hat (b)))-a=0) . Hier nutzen wir die Eigenschaft unverzerrter Kleinste-Quadrate-Schätzungen der Modellparameter E (b ^) = b (\displaystyle E((\hat (b)))=b) . Außerdem ist V (c T b ^ − a) = c T V (b ^) c = σ 2 c T (X T X) − 1 c (\displaystyle V(c^(T)(\hat (b))-a )=c^(T)V((\hat (b)))c=\sigma ^(2)c^(T)(X^(T)X)^(-1)c) . Wenn wir anstelle der unbekannten Varianz deren unverzerrte Schätzung s 2 = E S S / (n − k) (\displaystyle s^(2)=ESS/(n-k)) verwenden, erhalten wir die folgende t-Statistik:

T = c T b ^ − a s c T (X T X) − 1 c (\displaystyle t=(\frac (c^(T)(\hat (b))-a)(s(\sqrt (c^(T) (X^(T)X)^(-1)c)))))

Diese Statistik hat, wenn die Nullhypothese erfüllt ist, eine Verteilung t (n − k) (\displaystyle t(n-k)) . Wenn also der Wert der Statistik höher als der kritische Wert ist, dann gilt die Nullhypothese einer linearen Einschränkung ist abgelehnt.

Testen von Hypothesen zum linearen Regressionskoeffizienten

Ein Sonderfall einer linearen Einschränkung ist das Testen der Hypothese, dass der Regressionskoeffizient b j (\displaystyle b_(j)) gleich einem bestimmten Wert a (\displaystyle a) ist. In diesem Fall lautet die entsprechende t-Statistik:

T = b ^ j − a s b ^ j (\displaystyle t=(\frac ((\hat (b))_(j)-a)(s_((\hat (b))_(j)))))

wobei s b ^ j (\displaystyle s_((\hat (b))_(j))) der Standardfehler der Koeffizientenschätzung ist – die Quadratwurzel des entsprechenden Diagonalelements der Kovarianzmatrix der Koeffizientenschätzungen.

Wenn die Nullhypothese wahr ist, ist die Verteilung dieser Statistik t (n − k) (\displaystyle t(n-k)). Wenn der absolute Wert der Statistik höher ist als der kritische Wert, dann ist die Differenz zwischen dem Koeffizienten und a (\displaystyle a) statistisch signifikant (nicht zufällig), andernfalls ist sie unbedeutend (zufällig, d. h. der wahre Koeffizient ist). wahrscheinlich gleich oder sehr nahe am geschätzten Wert von a (\Anzeigestil a))

Kommentar

Ein Ein-Stichproben-Test für mathematische Erwartungen kann auf das Testen einer linearen Einschränkung für die linearen Regressionsparameter reduziert werden. Bei einem Test mit einer Stichprobe handelt es sich um eine „Regression“ auf eine Konstante. Daher ist s 2 (\displaystyle s^(2)) der Regression eine Stichprobenschätzung der Varianz der untersuchten Zufallsvariablen, die Matrix X T X (\displaystyle X^(T)X) ist gleich n (\displaystyle n ) und die Schätzung des „Koeffizienten“ des Modells entspricht dem Stichprobenmittelwert. Von hier aus erhalten wir den oben angegebenen Ausdruck für die t-Statistik für den allgemeinen Fall.

Ebenso lässt sich zeigen, dass sich ein Zweistichprobentest mit gleichen Stichprobenvarianzen auch auf das Testen linearer Einschränkungen reduziert. Bei einem Test mit zwei Stichproben handelt es sich um eine „Regression“ auf einer Konstanten und einer Dummy-Variablen, die die Teilstichprobe abhängig vom Wert (0 oder 1) identifiziert: y = a + b D (\displaystyle y=a+bD) . Die Hypothese über die Gleichheit der mathematischen Erwartungen der Stichproben kann als Hypothese über die Gleichheit des Koeffizienten b dieses Modells mit Null formuliert werden. Es kann gezeigt werden, dass die geeignete t-Statistik zum Testen dieser Hypothese der t-Statistik entspricht, die für den Zwei-Stichproben-Test angegeben wurde.

Es lässt sich auch auf die Überprüfung der linearen Nebenbedingung bei unterschiedlichen Streuungen reduzieren. In diesem Fall nimmt die Modellfehlervarianz zwei Werte an. Daraus können Sie auch eine t-Statistik erhalten, die der für den Zwei-Stichproben-Test angegebenen ähnelt.

Nichtparametrische Analoga

Ein Analogon des Zwei-Stichproben-Tests für unabhängige Stichproben ist der Mann-Whitney-U-Test. Für die Situation mit abhängigen Stichproben sind die Analoga der Vorzeichentest und der Wilcoxon-T-Test

Literatur

Student. Der wahrscheinliche Fehler eines Mittelwerts. // Biometrie. 1908. Nr. 6 (1). S. 1-25.

Links

Zu den Kriterien zum Testen von Hypothesen zur Homogenität der Mittel auf der Website der Staatlichen Technischen Universität Nowosibirsk