SPSS Auswertung: 7 Fehler
SPSS Auswertung: 7 Fehler, die Ihre Ergebnisse verfälschen – und wie Sie sie vermeiden
Wer in SPSS eine Analyse startet, bekommt immer ein Ergebnis – auch wenn die Eingabe fehlerhaft ist. Genau das macht die Software so tückisch. SPSS warnt nicht, wenn das Skalenniveau falsch definiert ist. Es meldet keinen Fehler, wenn Sie einen t-Test auf ordinal skalierte Daten anwenden. Und es liefert bereitwillig p-Werte, selbst wenn die Voraussetzungen des gewählten Tests grob verletzt sind.
Das Ergebnis: Studierende und Forschende vertrauen auf Zahlen, die methodisch nicht haltbar sind – und merken es oft erst bei der Verteidigung oder durch die Rückmeldung des Betreuers.
Dieser Beitrag zeigt sieben konkrete Fehler, die wir in der Praxis immer wieder sehen, erklärt, warum sie problematisch sind, und liefert eine klare Lösung für jeden einzelnen.
1. Falsches Skalenniveau – der unsichtbare Fehler
SPSS unterscheidet zwischen nominal, ordinal und metrisch. Diese Einstellung beeinflusst, welche Verfahren überhaupt zulässig sind – aber SPSS erzwingt das nicht. Wenn Sie eine Likert-Skala (1 = stimme gar nicht zu, 5 = stimme voll zu) als metrisch definieren, rechnet SPSS anstandslos einen Mittelwert. Ob das inhaltlich sinnvoll ist, steht auf einem anderen Blatt.
Typisches Beispiel: Eine Befragung mit der Antwortskala „nie / selten / manchmal / oft / immer” wird als metrisch kodiert. SPSS berechnet einen Mittelwert von 3,4 – aber was bedeutet „3,4″ auf dieser Skala inhaltlich? Nichts.
Lösung: Prüfen Sie vor jeder Analyse in der Variablenansicht, ob das Skalenniveau korrekt gesetzt ist. Nutzen Sie bei Unsicherheit den Grundsatz: Lieber konservativ als falsch. Ordinale Daten vertragen den Median und den Mann-Whitney-U-Test; für Mittelwerte und t-Tests brauchen Sie echte metrische Daten.
2. Fehlende Werte ignorieren – die stille Verzerrung
Fehlende Werte (Missings) entstehen in fast jeder Erhebung. Die entscheidende Frage ist nicht ob, sondern warum Daten fehlen. SPSS schließt fehlende Werte bei den meisten Verfahren stillschweigend aus (listenweiser Fallausschluss). Das kann dazu führen, dass Ihre Stichprobe plötzlich deutlich kleiner ist als geplant – ohne dass Sie es bemerken.
Typisches Beispiel: Von 200 Befragten haben 45 einzelne Items nicht beantwortet. Nach listenweisem Ausschluss bleiben nur 138 vollständige Fälle übrig. Die Analyse basiert auf einer verzerrten Teilstichprobe, und die statistische Power sinkt erheblich.
Lösung: Prüfen Sie vor der Analyse die Muster fehlender Werte über „Analysieren → Fehlende Werte”. Unterscheiden Sie zwischen MCAR (Missing Completely at Random), MAR (Missing at Random) und MNAR (Missing Not at Random). Je nach Muster kommen paarweiser Fallausschluss, Mittelwertersetzung oder – bei größeren Datensätzen – Multiple Imputation infrage. Dokumentieren Sie Ihre Entscheidung transparent.
3. Voraussetzungen nicht prüfen – der häufigste Anfängerfehler
Jedes statistische Verfahren hat Voraussetzungen. Der t-Test erfordert Normalverteilung und Varianzhomogenität. Die ANOVA setzt zusätzlich Unabhängigkeit der Gruppen voraus. Die lineare Regression verlangt Linearität, Homoskedastizität und keine Multikollinearität. SPSS prüft diese Voraussetzungen nicht automatisch – Sie müssen es selbst tun.
Typisches Beispiel: Ein Studierender führt eine einfaktorielle ANOVA durch. Die Gruppen haben Größen von n=8, n=12 und n=52. Der Levene-Test ist hochsignifikant (p = .001), die Varianzen sind also nicht homogen. Trotzdem wird das ANOVA-Ergebnis interpretiert. Das Ergebnis ist nicht belastbar.
Lösung: Erstellen Sie sich eine Checkliste für jedes Verfahren. Für die ANOVA beispielsweise: Shapiro-Wilk-Test je Gruppe (Normalverteilung), Levene-Test (Varianzhomogenität), Ausreißercheck über Boxplots. Bei Verletzung der Voraussetzungen auf robuste Alternativen ausweichen: Welch-ANOVA statt klassischer ANOVA, Kruskal-Wallis statt ANOVA bei Nicht-Normalverteilung.
4. Multiples Testen ohne Korrektur – der p-Wert-Irrtum
Wer zehn Hypothesen testet, findet mit 40 % Wahrscheinlichkeit mindestens ein signifikantes Ergebnis – rein zufällig. Dieses Problem heißt Alpha-Fehler-Kumulation und wird in studentischen Arbeiten erstaunlich oft ignoriert.
Typisches Beispiel: In einer Bachelorarbeit werden 15 Korrelationen berechnet. Drei davon sind signifikant bei p < .05. Alle drei werden als bestätigte Hypothesen interpretiert. Tatsächlich ist die Wahrscheinlichkeit, dass mindestens eine davon ein Zufallsbefund ist, extrem hoch.
Lösung: Verwenden Sie bei mehreren Tests eine Korrektur. Die Bonferroni-Korrektur ist die einfachste Methode: Teilen Sie Ihr Signifikanzniveau (z. B. 0,05) durch die Anzahl der Tests. Bei 15 Tests liegt das korrigierte Alpha bei 0,0033. In SPSS können Sie Post-hoc-Tests mit Bonferroni-Korrektur direkt in den ANOVA-Optionen auswählen. Bei explorativen Analysen kann alternativ die Benjamini-Hochberg-Methode (FDR) sinnvoll sein.
5. Korrelation als Kausalität interpretieren – der Klassiker
SPSS liefert Korrelationskoeffizienten. Was es nicht liefert, ist eine Aussage darüber, ob Variable A tatsächlich Variable B verursacht. Trotzdem finden sich in wissenschaftlichen Arbeiten regelmäßig Formulierungen wie „Stress führt zu schlechteren Noten” – basierend auf einer einfachen Pearson-Korrelation.
Typisches Beispiel: Eine Studie zeigt eine Korrelation von r = .45 zwischen Bildschirmzeit und Schlafproblemen bei Studierenden. Im Ergebnisteil steht: „Hohe Bildschirmzeit verursacht Schlafprobleme.” Das ist durch die Daten nicht gedeckt. Ebenso plausibel: Menschen mit Schlafproblemen verbringen mehr Zeit am Bildschirm, oder eine dritte Variable (z. B. Prüfungsstress) beeinflusst beides.
Lösung: Formulieren Sie Korrelationsbefunde immer als Zusammenhang, nie als Ursache. Verwenden Sie Formulierungen wie „Es zeigt sich ein positiver Zusammenhang zwischen X und Y” statt „X führt zu Y.” Wenn Sie kausale Aussagen treffen möchten, brauchen Sie ein experimentelles Design oder zumindest Mediations-/Moderationsanalysen mit theoretischer Fundierung.
6. Ausreißer nicht behandeln – das verfälschte Gesamtbild
Ein einzelner Extremwert kann den Mittelwert, die Standardabweichung und damit das Ergebnis eines t-Tests massiv verschieben. SPSS zeigt Ausreißer in Boxplots an, aber viele Nutzer überspringen diesen Schritt.
Typisches Beispiel: In einer Gehaltsstudie mit 50 Teilnehmern verdienen 49 Personen zwischen 2.000 und 4.500 Euro. Eine Person gibt 45.000 Euro an (möglicherweise Jahresgehalt statt Monatsgehalt eingetragen). Der Mittelwert springt von 3.100 auf 3.940 Euro – ein verzerrtes Ergebnis.
Lösung: Erstellen Sie vor jeder Analyse Boxplots und Histogramme. Identifizieren Sie Ausreißer über die 1,5-IQR-Regel oder z-Werte (|z| > 3). Entscheiden Sie dann begründet: Ist der Wert ein Datenfehler (korrigieren oder entfernen), ein echter Extremwert (robuste Verfahren nutzen) oder inhaltlich relevant (separat berichten)? Dokumentieren Sie Ihre Entscheidung immer im Methodenteil.
7. Copy-Paste aus dem SPSS-Output – der Präsentationsfehler
SPSS-Outputs sind für die Analyse gemacht, nicht für den Ergebnisteil einer wissenschaftlichen Arbeit. Trotzdem kopieren viele Studierende die Standard-Tabellen direkt in ihre Arbeit – unformatiert, mit kryptischen Variablennamen und ohne Beschriftung.
Typisches Beispiel: Eine Regressionstabelle aus SPSS zeigt Variablen wie „VAR00003″ und „ZUF_REC_v2″. Keine Legende, keine Erklärung der Abkürzungen, keine Einheiten. Der Betreuer kann die Ergebnisse nicht nachvollziehen.
Lösung: Erstellen Sie eigene Tabellen nach den Vorgaben Ihres Fachbereichs (häufig APA 7). Benennen Sie Variablen verständlich, runden Sie auf sinnvolle Dezimalstellen, und ergänzen Sie Anmerkungen zu Signifikanzniveaus. Berichten Sie neben p-Werten immer auch Effektgrößen (Cohens d, η², R²) und Konfidenzintervalle – das ist inzwischen Standard in der empirischen Forschung.
Diese Fehler vermeiden – oder vermeiden lassen
Die gute Nachricht: Jeder dieser Fehler ist vermeidbar. Die schlechte: Sie alle gleichzeitig im Blick zu behalten, erfordert Erfahrung und methodisches Wissen, das im Studium oft zu kurz kommt.
Wenn Sie auf Nummer sicher gehen möchten, können Sie Ihre SPSS-Auswertung von erfahrenen Statistikern prüfen oder erstellen lassen. Das spart nicht nur Zeit, sondern gibt Ihnen die Sicherheit, dass Ihre Ergebnisse methodisch sauber und belastbar sind.






