Chi2 Test

Allgemeine Fragestellungen zu Statistik mit SPSS.

Chi2 Test

Beitragvon Musikerin » Sa 25. Aug 2012, 16:10

Ich habe eine Frage.

Mittels Chi2-Test möchte ich 2 oder 3 Variablen auf ihre Unabhängigkeit prüfen (via SPSS --> Kreuztabellen)

- für den Vergleich zweier Nominalskalierter Variablen kann ich hierbei ja Cramers V oder Pearson nehmen?
- für den Vergleich zweier ordinalskalierter Variablen nehme ich Eta?

Was nehme ich, wenn ich die Unabhängigkeit von einer nominalskalierten und einer ordinalskalierten Variable testen möchte?


Gibt es einen Chi2-Test für alle Skalierungen?
Musikerin
 
Beiträge: 3
Registriert: Sa 25. Aug 2012, 16:00
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Re: Chi2 Test

Beitragvon strukturmarionette » Sa 25. Aug 2012, 20:32

Hi,

(ohne Deine Daten und Hypothesen eigentlich nicht zu beantworten)

zur Orientierung aber: 1:1 aus der SPSS-Hilfe

Kreuztabellen: Statistik

Chi-Quadrat.Für Tabellen mit zwei Zeilen und zwei Spalten wählen Sie Chi-Quadrat aus, um das Pearson-Chi-Quadrat, das Likelihood-Quotienten-Chi-Quadrat, den exakten Test nach Fisher und das korrigierte Chi-Quadrat nach Yates (Kontinuitätskorrektur) zu berechnen. Für 2 × 2-Tabellen wird der exakte Test nach Fisher berechnet, wenn eine Tabelle, die nicht aus fehlenden Zeilen oder Spalten einer größeren Tabelle entstanden ist, eine Zelle mit einer erwarteten Häufigkeit von weniger als 5 enthält. Für alle anderen 2 × 2-Tabellen wird das korrigierte Chi-Quadrat nach Yates berechnet. Für Tabellen mit einer beliebigen Anzahl von Zeilen und Spalten wählen Sie Chi-Quadrat aus, um das Pearson-Chi-Quadrat und das Likelihood-Quotienten-Chi-Quadrat zu berechnen. Wenn beide Tabellenvariablen quantitativ sind, ergibt Chi-Quadrat den Zusammenhangstest linear-mit-linear.

Korrelationen. Für Tabellen, in denen sowohl Zeilen als auch Spalten geordnete Werte enthalten, ergeben die Korrelationen den Korrelationskoeffizienten nach Spearman, also Rho (nur numerische Daten). Der Korrelationskoeffizient nach Spearman ist ein Zusammenhangsmaß zwischen den Rangordnungen. Wenn beide Tabellenvariablen (Faktoren) quantitativ sind, ergibt sich unter Korrelationen der Korrelationskoeffizient nach Pearson, r, der ein Maß für den linearen Zusammenhang zwischen den Variablen darstellt.
Nominal. Für nominale Daten (ohne implizierte Reihenfolge, wie beispielsweise katholisch, protestantisch, jüdisch) können Sie Kontingenzkoeffizient, Phi (Koeffizient) und Cramér'-V, Lambda (symmetrische und asymmetrische Lambdas sowie Goodman-und-Kruskal-Tau) und Unsicherheitskoeffizient auswählen.

• Kontingenzkoeffizient. Ein auf der Chi-Quadrat-Statistik basierendes Zusammenhangsmaß. Dieser Koeffizient liegt immer zwischen 0 und 1, wobei 0 angibt, dass kein Zusammenhang zwischen Zeilen- und Spaltenvariable besteht und Werte nahe 1 auf einen starken Zusammenhang zwischen den Variablen hindeuten. Der maximale Wert hängt von der Anzahl der Zeilen und Spalten in der Tabelle ab.

• Phi und Cramer-V. Phi ist ein auf der Chi-Quadrat-Statistik basierendes Zusammenhangsmaß. Es ergibt sich als Wurzel aus dem Quotienten aus Chi-Quadrat und dem Stichprobenumfang. Cramer-V ist ebenfalls ein Zusammenhangsmaß auf der Basis der Chi-Quadrat-Statistik.

• Lambda. Ein Zusammenhangsmaß für die proportionale Fehlerreduktion, wenn Werte der unabhängigen Variablen zur Vorhersage von Werten der abhängigen Variablen verwendet werden. Der Wert 1 bedeutet, dass die abhängige Variable durch die unabhängige Variable vollständig vorhergesagt werden kann. Der Wert 0 bedeutet, dass die Vorhersage der abhängigen Variablen durch die unabhängige Variable nicht unterstützt wird.

• Unsicherheitskoeffizient. Ein Zusammenhangsmaß, das die proportionale Fehlerreduktion angibt, wenn Werte einer Variablen zur Vorhersage von Werten der anderen Variablen verwendet werden. Ein Wert von 0,83 gibt z. B. an, dass die Kenntnis einer Variablen den Fehler bei der Vorhersage der Werte der anderen Variablen um 83 % reduziert. Das Programm berechnet beide Versionen des Unsicherheitskoeffizienten, die symmetrische und die asymmetrische.
Ordinal.Für Tabellen, in welchen die Zeilen und Spalten geordnete Werte enthalten, wählen Sie Gamma (nullte Ordnung für Zweifach-Tabellen und bedingt für Dreifach- bis Zehnfach-Tabellen), Kendall-Tau-b und Kendall-Tau-c aus. Zur Vorhersage von Spaltenkategorien auf der Grundlage von Zeilenkategorien wählen Sie Somers-d aus.

• Gamma. Ein symmetrisches Zusammenhangsmaß für zwei ordinalskalierte Variablen, dessen Wertebereich zwischen -1 und +1 liegt. Werte nahe bei -1 oder +1 weisen auf einen starken Zusammenhang zwischen den Variablen hin. Werte nahe 0 stehen für einen schwachen oder fehlenden Zusammenhang. Zeigt Gamma-Werte nullter Ordnung für Tabellen mit 2 Variablen an. Für Tabellen mit drei oder mehr Variablen werden bedingte Gamma-Werte angezeigt.

• Somers-d. Ein Zusammenhangsmaß für zwei ordinale Variablen, dessen Wertebereich zwischen -1 und +1 liegt. Werte, die betragsmäßig nahe bei 1 liegen, geben einen starken Zusammenhang zwischen den beiden Variablen an, Werte nahe 0 einen schwachen oder fehlenden Zusammenhang. Somers-d ist eine asymmetrische Erweiterung von Gamma. Der Unterschied liegt in der Einbeziehung der Anzahl von Paaren, die keine Bindungen in der unabhängigen Variablen aufweisen. Eine symmetrische Version dieser Statistik wird ebenfalls berechnet.

• Kendall-Tau-b. Ein nichtparametrisches Korrelationsmaß für ordinale Variablen oder Ränge, das Bindungen berücksichtigt. Das Vorzeichen des Koeffizienten gibt die Richtung des Zusammenhangs an und sein Betrag die Stärke; dabei entsprechen betragsmäßig größere Werte einem stärkeren Zusammenhang. Die möglichen Werte liegen im Bereich von -1 und 1, ein Wert von -1 oder +1 ergibt sich jedoch nur aus quadratischen Tabellen.

• Kendall-Tau-c. Ein nichtparametrisches Zusammenhangsmaß für ordinale Variablen, das Bindungen ignoriert. Das Vorzeichen des Koeffizienten gibt die Richtung des Zusammenhangs an und sein Betrag die Stärke; dabei entsprechen betragsmäßig größere Werte einem stärkeren Zusammenhang. Die möglichen Werte liegen im Bereich von -1 und 1, ein Wert von -1 oder +1 ergibt sich jedoch nur aus quadratischen Tabellen.
Nominal bezüglich Intervall.Wenn eine Variable kategorial und eine andere quantitativ ist, wählen Sie Eta aus. Die kategoriale Variable muss numerisch kodiert sein.
Einzelheiten ausblenden

• Eta. Ein Zusammenhangsmaß, das zwischen 0 und 1 liegt; dabei steht 0 für fehlenden Zusammenhang zwischen den Zeilen- und Spaltenvariablen und Werte nahe bei 1 geben einen starken Zusammenhang an. Eta ist geeignet für eine intervallskalierte abhängige Variable (z. B. Einkommen) und eine unabhängige Variable mit einer begrenzten Anzahl von Kategorien (z. B. Geschlecht). Es werden zwei Eta-Werte berechnet: der eine behandelt die Zeilenvariablen und der andere die Spaltenvariable als intervallskalierte Variable.

Kappa. Der Cohen-Kappa-Koeffizient misst die Übereinstimmung zwischen den Beurteilungen zweier Prüfer, wenn beide dasselbe Objekt bewerten. Der Wert 1 bedeutet perfekte Übereinstimmung. Der Wert 0 bedeutet, dass die Übereinstimmung nicht über das zufallsbedingte Maß hinausgeht. Kappa basiert auf einer quadratischen Tabelle, in der die Zeilen- und Spaltenwerte dieselbe Skala darstellen. Jeder Zelle, in der Werte für eine, jedoch nicht die andere Variable beobachtet wurden, wird die Anzahl 0 zugewiesen. Kappa wird nicht berechnet, wenn der Datenspeichertyp (String oder numerisch) der beiden Variablen nicht übereinstimmt. Bei String-Variablen müssen beide Variablen dieselbe definierte Länge aufweisen.
Risiko. Ein Maß, das bei 2 x 2-Tabellen die Stärke des Zusammenhangs zwischen dem Vorhandensein eines Faktors und dem Auftreten eines Ereignisses misst. Wenn das Konfidenzintervall für die Statistik den Wert 1 enthält, ist nicht anzunehmen, dass zwischen Faktor und Ereignis ein Zusammenhang besteht. Das Quotenverhältnis (Odds Ratio) kann als Schätzer für das relative Risiko verwendet werden, wenn der Faktor selten auftritt.

McNemar. Ein nichtparametrischer Test für zwei verbundene dichotome Variablen. Prüft unter Verwendung der Chi-Quadrat-Verteilung, ob Änderungen bei den Antworten vorliegen. Dieser Test ist für das Erkennen von Änderungen bei Antworten nützlich, die durch experimentelle Einflussnahme in so genannten "Vorher-und-nachher-Designs" entstanden sind. Bei größeren quadratischen Tabellen wird der McNemar-Bowker-Test auf Symmetrie ausgegeben.

Cochran- und Mantel-Haenszel-Statistik. Die Cochran- und die Mantel-Haenszel-Statistik können verwendet werden, um auf Unabhängigkeit zwischen einer dichotomen Faktorvariablen und einer dichotomen Response-Variablen zu testen, und zwar in Abhängigkeit von einem Kovariatenmuster, das durch eine oder mehrere Schichtvariablen (Kontrollvariablen) definiert wird. Beachten Sie, dass andere Statistiken schichtenweise berechnet werden, die Cochran- und die Mantel-Haenszel-Statistik dagegen einmal für alle Schichten berechnet werden.
strukturmarionette
 
Beiträge: 2458
Registriert: Sa 1. Okt 2011, 17:20
Danke gegeben: 7
Danke bekommen: 122 mal in 122 Posts


Zurück zu Statistik allgemein

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste