PropertyValue
?:about
?:abstract
  • Kapitel 1 Einführung 3; 1.1 Ziele 4; 1.2 Messtheorie und deskriptive Statistik 8; 1.3 Grundlagen der Wahrscheinlichkeitsrechnung 9; 1.4 Inferenzstatistik 9; 1.5 Parametrische und nonparametrische Verfahren zur; Unterschiedsprüfung 10; 1.6 Verfahren zur Prüfung von Mittelwertsunterschieden; bei mehr als zwei Gruppen 10; 1.7 Korrelation und Regression 11; Literatur 12; Kapitel 2 Messtheorie und deskriptive Statistik 13; 2.1 Messen 15; 2.1.1 Wichtige Begriffe 15; 2.1.2 Einführung in die Messtheorie 17; 2.1.3 Skalenniveaus 19; 2.1.4 Grundlagen der Testtheorie 25; 2.2 Deskriptive Statistiken 27; 2.2.1 Häufigkeiten und Kategorienbildung 27; 2.2.2 Zentrale Tendenz 35; 2.2.3 Dispersionsmaße 42; 2.2.4 Schiefe und Exzess 48; 2.2.5 Die Normalverteilung 54; 2.2.6 Transformationen 56; 2.3 Grafische Darstellungen 64; 2.4 Vorgehen in SPSS 81; 2.4.1 Deskriptive Statistiken 81; 2.4.2 Grafische Darstellungen 85; 2.4.3 Deskriptive Statistiken und grafische Darstellungen 88; Übungen 96; Literatur 98; Kapitel 3 Grundlagen der Wahrscheinlichkeitsrechnung 99; 3.1 Begriffsklärung 101; 3.1.1 Das Zufallsexperiment 101; 3.1.2 Die Zufallsvariable 104; 3.1.3 Der Ereignisraum 104; 3.1.4 Das Elementarereignis 106; 3.1.5 Das logische UND 107; 3.1.6 Das logische ODER 108; 3.1.7 Das sichere Ereignis 109; 3.1.8 Das unmögliche Ereignis 110; 3.1.9 Komplementärereignis 110; 3.1.10 Disjunkte Ereignisse 111; 3.1.11 Nicht-disjunkte Ereignisse 112; 3.2 Bestimmung der Wahrscheinlichkeit für ein Ereignis 113; 3.2.1 Wahrscheinlichkeit nach Laplace 113; 3.2.2 Wahrscheinlichkeit nach Bernoulli 114; 3.3 Bestimmung der Wahrscheinlichkeit für das Eintreten mehrerer Zufallsereignisse 118; 3.3.1 Bedingte Wahrscheinlichkeit 118; 3.3.2 Additionssatz 121; 3.3.3 Multiplikationssatz 124; 3.3.4 Der Wahrscheinlichkeitsbaum 128; 3.4 Kombinatorik 129; Übungen 133; Literatur 134; Kapitel 4 Inferenzstatistik 135; 4.1 Hypothesentests 137; 4.1.1 Statistische Hypothesen aufstellen 139; 4.1.2 Entscheidungsregeln festlegen 143; 4.1.3 Stichprobenziehung 145; 4.1.4 Vorüberlegung zur Datenauswertung 149; 4.1.5 Daten auswerten 158; 4.1.6 Eine Entscheidung treffen 163; 4.2 Effektstärke 173; 4.3 Fehler 2. Art und Teststärke 184; 4.4 Der Ärger mit der Wunschhypothese 197; 4.5 Versuchsplanung mit G*Power 199; 4.5.1 Stichprobenplanung und Berechnung; der post-hoc-Teststärke bei unabhängigen Stichproben 200; 4.5.2 Stichprobenplanung und Berechnung der post-hoc-Teststärke bei abhängigen Stichproben 205; 4.6 Zusammenfassung Hypothesentests 209; 4.7 Gebräuchliche Verteilungen 216; 4.7.1 Diskrete Verteilungen (Binomialverteilung) 216; 4.7.2 Stetige Verteilungen 220; Übungen 228; Literatur 229; Kapitel 5 Parametrische und nonparametrische Tests zur Unterschiedsprüfung 231; 5.1 Parametrische Verfahren bei zwei Gruppen 232; 5.1.1 t-Test für eine Stichprobe - Einstichprobenproblem 233; 5.1.2 t-Test für abhängige Stichproben 238; 5.1.3 t-Test für unabhängige Stichproben 250; 5.2 Nonparametrische Verfahren 264; 5.2.1 Vorzeichen-Rang-Test von Wilcoxon für abhängige Stichproben 267; 5.2.2 U-Test für unabhängige Stichproben 277; 5.3 Nonparametrische Verfahren (nominale Messwerte) 284; 5.3.1 X2-Anpassungstest 284; 5.3.2 x2-4-Felder-Test 291; 5.3.3 McNemar-Test 306; Übungen 314; Literatur 319; Kapitel 6 Verfahren zur Prüfung von Mittelwertsunterschieden bei mehr als zwei Gruppen 321; 6.1 Grundidee 323; 6.1.1 Zweck der Varianzanalyse 324; 6.1.2 Prinzip der Varianzanalyse 327; 6.1.3 Ausblick 341; 6.2 Einfaktorielle Varianzanalyse ohne Messwiederholung 343; 6.2.1 Grundprinzip der einfaktoriellen ANOVA; ohne Messwiederholung 348; 6.2.2 Vorgehen bei der einfaktoriellen ANOVA 352; 6.2.3 Effektstärken bei der einfaktoriellen Varianzanalyse 362; 6.2.4 Teststärke und Stichprobenplanung bei der einfaktoriellen; Varianzanalyse 365; 6.2.5 Voraussetzungen 367; 6.2.6 Beispiel mit SPSS 371; 6.3 Kruskal-Wallis-Test 378; 6.3.1 Grundprinzip bei der Rangvarianzanalyse nach Kruskal und Wallis 379; 6.3.2 Vorgehen bei der Rangvarianzanalyse an einem Beispiel 385; 6.3.3 Voraussetzungen 388; 6.3.4 Beispiel mit SPSS 389; 6.4 Zweifaktorielle Varianzanalyse ohne Messwiederholung 391; 6.4.1 Grundprinzip und Vorgehen bei der zweifaktoriellen; Varianzanalyse ohne Messwiederholung 398; 6.4.2 Effektstärken bei der zweifaktoriellen Varianzanalyse 413; 6.4.3 Interpretation von Wechselwirkungen 415; 6.4.4 Teststärke und Stichprobenplanung bei der zweifaktoriellen Varianzanalyse 421; 6.4.5 Voraussetzungen 423; 6.4.6 SPSS-Beispiel 423; 6.5 Einfaktorielle Varianzanalyse mit Messwiederholung 431; 6.5.1 Grundprinzip 436; 6.5.2 Vorgehen bei der einfaktoriellen Varianzanalyse mit Messwiederholung 443; 6.5.3 Effektstärken bei der einfaktoriellen Varianzanalyse mit Messwiederholung 452; 6.5.4 Teststärke und Stichprobenplanung bei der einfaktoriellen; Varianzanalyse mit Messwiederholung 454; 6.5.5 Voraussetzungen 457; 6.5.6 SPSS-Beispiel 460; 6.6 Friedman-Test 466; 6.6.1 Grundprinzip und Vorgehen beim Friedman-Test 467; 6.6.2 Effektstärken beim Friedman-Test 472; 6.6.3 Teststärke und Stichprobenplanung beim Friedman-Test 473; 6.6.4 Voraussetzungen 475; 6.6.5 SPSS-Beispiel 475; 6.7 Zweifaktorielle Varianzanalyse mit Messwiederholung; (gemischtes Design) 478; 6.7.1 Grundprinzip und Vorgehen bei der zweifaktoriellen; Varianzanalyse mit Messwiederholung (gemischtes Design) 486; 6.7.2 Effektstärken bei der zweifaktoriellen Varianzanalyse 508; 6.7.3 Teststärke und Stichprobenplanung bei der zweifaktoriellen; Varianzanalyse (gemischtes Design) 511; 6.7.4 Voraussetzungen 514; 6.7.5 SPSS-Beispiel 515; 6.8 A-priori-Kontraste, post-hoc-Tests und Trendtests 524; 6.8.1 A-priori-Kontraste 525; 6.8.2 Post-hoc-Tests 545; 6.8.3 Trendtests 559; Übungen 571; Literatur 578; Kapitel 7 Korrelation und Regression 581; 7.1 Korrelationen 582; 7.1.1 Einfache lineare Regression 582; 7.1.2 Regression, Korrelation und kausale Interpretation 590; 7.1.3 Kovarianz 591; 7.1.4 Bivariate Korrelation (Produkt-Moment-Korrelation) 593; 7.1.5 Korrelationsunterschiede 607; 7.1.6 Spearman-Rangkorrelation und Kendalls-tau 612; 7.1.7 Produkt-Moment-Korrelation, Spearman-Rangkorrelation; und Kendalls-tau mit SPSS 620; 7.1.8 Punktbiseriale Korrelation und biseriale Rangkorrelation 622; 7.1.9 Phi-Koeffizient, tetrachorische und polychorische Korrelation ... 627; 7.1.10 Guttmans u2 632; 7.1.11 Übersicht über Korrelationskoeffizienten 633; 7.2 Multiple lineare Regression 634; 7.2.1 Einführung 635; 7.2.2 Partial- und Semipartialkorrelation 641; 7.2.3 Berechnung von ß- bzw. b-Gewichten 646; 7.2.4 Berechnung von R2 652; 7.2.5 Signifikanz von R2 undß-Gewichten 658; 7.2.6 Zusammenfassung: Interpretation R2 und ß 662; 7.2.7 Effektstärke und Teststärke für R2 663; 7.2.8 Voraussetzungen 665; 7.2.9 Methoden im Rahmen der Regressionsanalyse 682; 7.2.10 Verknüpfung mehrerer Regressionsanalysen 684; 7.2.11 Suppressionseffekte 685; 7.2.12 Multiple Regression zur Theorie-Entwicklung 690; 7.3 Dummy-Kodierung 699; 7.4 Regression zur Mitte 701; 7.5 Multiple Regression mit SPSS... 703; 7.6 Hierarchische lineare multiple Regression mit SPSS 717; 7.7 Mediation und Moderation in SPSS 722; 7.7.1 Mediation 722; 7.7.2 Moderation 725; 7.8 Mediation mit AMOS 728; Übungen 736; Literatur 739; Anhang A: Lösungen 742; Anhang B: Tabellen 798; Anhang C: Register 807 (xsd:string)
?:author
?:contributor
?:dateModified
  • 2009 (xsd:gyear)
?:datePublished
  • 2009 (xsd:gyear)
?:duplicate
?:hasFulltext
  • false (xsd:boolean)
is ?:hasPart of
?:inLanguage
  • Deutsch (DE) (xsd:string)
?:isbn
  • 9783827372741 ()
?:libraryLocation
is ?:mainEntity of
?:name
  • Statistik für Psychologen und Sozialwissenschaftler (xsd:string)
?:provider
?:publicationType
  • Buch (de)
  • Monographie (xsd:string)
  • book (en)
?:publisher
?:sourceInfo
  • GESIS-BIB (xsd:string)
  • München u.a.: Addison-Wesley, 2009.- XI, 812 S., Ill., graph. Darst. (xsd:string)
rdf:type