PropertyValue
?:about
?:abstract
  • 1.1 Einführung in die deskriptive Statistik - Statistik zum Anfassen 2; 1.2 Begrifflichkeiten - Möchte ich einen Familienstand von 2,5? 7; 1.2.1 Grundgesamtheit und Stichprobe 8; 1.2.2 Begriffsdefinitionen 9; 1.2.3 Skalierung eines Merkmals 11; 1.3 Verteilung eines Merkmals - Wie bändigt man die Datenflut? 14; 1.3.1 Klassierte Häufigkeitstabelle 14; 1.3.2 Genauere Informationen mithilfe der Urliste 23; 1.3.3 Kleiner Exkurs 28; 1.3.4 Verteilung eines Merkmals, dessen Daten in Häufigkeitstabellen eingeteilt werden können 33; 1.4 Lagemaße - Die Lage der Daten ist selten hoffnungslos 38; 1.4.1 Arithmetisches Mittel 38; 1.4.2 Median 39; 1.4.3 Modus 39; 1.4.4 Warum der Median, wenn man den Mittelwert haben kann? 40; 1.5 Streuungsmaße - Mit Schrot trifft man immer 41; 1.5.1 Varianz und Standardabweichung 42; 1.5.2 Interquartilsabstand 47; 1.6 Kennwerte bei Daten in Häufigkeitstabellen - Was in aller Welt ist eine Einfallsklasse? 47; 2 Wahrscheinlichkeitstheorie 51; 2.1 Ereignisse und Wahrscheinlichkeiten - Gibt es überhaupt Wahrscheinlichkeiten? 51; 2.2 Gemeinsame Wahrscheinlichkeiten - Gemeinsame Wahrscheinlichkeiten sind ungemein gemein! 65; 2.3 Bedingte Wahrscheinlichkeiten - Warum können Placebos schwere Nebenwirkungen haben? 70; 2.3.1 Bedeutung der bedingten Wahrscheinlichkeit 70; 2.3.2 Bayes'sches Theorem 74; 2.4 Stochastische Unabhängigkeit - Kann ein Fahrrad von den Tupfen einer Krawatte abhängen? 79; 2.5 Mehrfache Zufallsvorgänge - Ab in die Urne! 82; 2.5.1 Unabhängige Versuche 83; 2.5.2 Abhängige Versuche 85; 2.5.3 Urnenmodelle 88; 3 Zufallsvariablen 93; 3.1 Diskrete Zufallsvariablen - Warum ist die Serviceagentur so diskret? 93; 3.1.1 Lageparameter 100; 3.1.2 Varianz 101; 3.2 Diskrete Verteilungen - Ist Dichotomie eine Urnenkrankheit? 105; 3.2.1 Hypergeometrische Verteilung 105; 3.2.2 Binomialverteilung 109; 3.2.3 Poisson-Verteilung 112; 3.3 Stetige Zufallsvariablen - Warum kann ein Fisch nicht genau zehn Tage lang leben? 115; 3.3.1 Geometrische Ermittlung der Verteilungsfunktion 118; 3.3.2 Quantile 121; 3.3.3 Integrieren bei Verteilungsfunktionen 121; 3.4 Normalverteilung - die Königin der Verteilungen 124; 3.4.1 Eigenschaften der Normalverteilung 124; 3.4.2 Reproduktivität der Normalverteilung 132; 3.4.3 Zentraler Grenzwertsatz 132; 3.4.4 Approximation von Verteilungen 133; 3.5 Gemeinsam verteilte Zufallsvariablen - Steigt immer die Zahl der Kinder mit der Zahl der Störche? 137; 3.5.1 Kovarianz und Korrelationskoeffizient 141; 3.5.2 Lineare Funktionen von Zufallsvariablen 147; 4 Parameterschätzungen 151; 4.1 Schätzverteilungen - Könnte man sie Designerverteilungen nennen? 151; 4.1.1 x2-Verteilung 152; 4.1.2 F-Verteilung 155; 4.1.3 t-Verteilung 157; 4.2 Schätzfunktionen - Ist der beste Schätzer auch der beste Schätzer? 159; 4.2.1 Schätzfunktion für den Erwartungswert eines normalverteilten Merkmals mit bekannter Varianz 159; 4.2.2 Schätzfunktion für die Varianz eines normalverteilten Merkmals 164; 4.2.3 Schätzfunktion für den Erwartungswert eines normalverteilten Merkmals mit unbekannter Varianz 165; 4.2.4 Schätzfunktion für den Erwartungswert eines normalverteilten Merkmals bei einer Auswahl ohne Zurücklegen 166; 4.2.5 Schätzfunktion für den Anteil der Kugeln erster Sorte einer binomialverteilten Zufallsvariablen 167; 4.3 Konfidenzintervalle - Wie weit geht das Vertrauen in den Schätzer? 168; 4.3.1 Konfidenzintervall für den Erwartungswert eines normalverteilten; Merkmals mit bekannter Varianz 168; 4.3.2 Konfidenzintervall für den Erwartungswert eines normalverteilten; Merkmals mit unbekannter Varianz 173; 4.3.3 Konfidenzintervall für den Erwartungswert eines unbekannt verteilten Merkmals mit unbekannter Varianz 174; 4.3.4 Konfidenzintervall für den Erwartungswert eines normalverteilten; Merkmals mit bekannter Varianz bei einer Auswahl ohne Zurücklegen; 175; 4.3.5 Konfidenzintervall für den Erwartungswert eines normalverteilten; Merkmals mit unbekannter Varianz bei einer Auswahl ohne Zurücklegen 176; 4.3.6 Konfidenzintervall für den Erwartungswert eines unbekannt verteilten Merkmals mit unbekannter Varianz bei einer Auswahl ohne Zurücklegen; 176; 4.3.7 Konfidenzintervall für den Anteilswert eines dichotomen Merkmals bei einer Auswahl mit Zurücklegen 178; 4.3.8 Konfidenzintervall für den Anteilswert eines dichotomen Merkmals bei einer Auswahl ohne Zurücklegen 179; 5 Hypothesentests 181; 5.1 Einführung in den Hypothesentest - Wie tickt der? 181; 5.1.1 Punkthypothese 181; 5.1.2 Bereichshypothese 185; 5.1.3 a - und /3-Fehler 188; 5.1.4 Bemerkungen zur Nullhypothese und Alternativhypothese 194; 5.2 Test eines Erwartungswertes 196; 5.2.1 Test des Erwartungswertes eines normalverteilten Merkmals bei bekannter Varianz 196; 5.2.2 Test des Erwartungswertes eines normalverteilten Merkmals bei unbekannter Varianz 197; 5.2.3 Test des Erwartungswertes eines Merkmals mit unbekannter Verteilung und unbekannter Varianz 198; 5.2.4 Test des Erwartungswertes eines Merkmals bei einer Stichprobenentnahme ohne Zurücklegen 199; 5.3 Test des Anteilswertes einer dichotomen Grundgesamtheit 200; 5.3.1 Test des Anteilswertes einer dichotomen Grundgesamtheit bei; großem Stichprobenumfang n 200; 5.3.2 Test des Anteilswertes einer dichotomen Grundgesamtheit bei kleinem Stichprobenumfang n 201; 5.3.3 Test des Anteilswertes einer dichotomen Grundgesamtheit bei einem Entnahmemodell ohne Zurücklegen 204; 5.4 Test der Varianz 206; 5.5 Vergleich zweier Parameter 208; 5.5.1 Vergleich zweier Erwartungswerte 208; 5.5.2 Vergleich der Anteilswerte zweier dichotomer Grundgesamtheiten. . . . 214; 5.5.3 Vergleich der Varianzen zweier Grundgesamtheiten 216; 5.6 x2-Tests 217; 5.6.1 Verteilungstest 217; 5.6.2 Unabhängigkeitstest 225; 5.7 Verteilungsfreie Tests 228; 5.7.1 Vorzeichentest 228; 5.7.2 Wilcoxon-Mann-Whitney-Test 234; 6 Analyse mehrerer Merkmale 243; 6.1 Deskriptive Analyse - Das gute alte Streudiagramm 243; 6.1.1 Zusammenfassung mehrdimensionaler Daten 243; 6.1.2 Häufbare Merkmale 244; 6.1.3 Stetige Merkmale 247; 6.1.4 Gemischte Skalenniveaus 248; 6.1.5 Abhängigkeitsstrukturen 249; 6.2 Zusammenhangsmaße - Können wir Linearität messen? 250; 6.2.1 Korrelationskoeffizient nach Pearson 251; 6.2.2 Rangkorrelationskoeffizient nach Spearman 256; 6.2.3 Kontingenzkoeffizient 261; 6.3 Regressionsanalyse - Wie finden wir eine Gerade? 264; 6.3.1 Einfaches lineares Regressionsmodell 265; 6.3.2 Güte der Anpassung 273; 6.3.3 Prognose 277; 6.3.4 Multiple Regression 278; 6.4 Schätzen und Testen im Zusammenhang mit mehreren Merkmalen - Wann ist ein linearer Zusammenhang wirklich linear? 279; 6.4.1 Test des Pearson'schen Korrelationskoeffizienten 279; 6.4.2 Test des Spearman'schen Rangkorrelationskoeffizienten 280; 6.4.3 Schätzen im einfachen linearen Regressionsmodell 281; 6.4.4 Testen im einfachen linearen Regressionsmodell 286; 6.5 Varianzanalyse - Varianz heißt Information 293; 6.5.1 Einfaktorielle Varianzanalyse 293; 6.5.2 Zweifaktorielle Varianzanalyse 305 (xsd:string)
?:author
?:contributor
?:dateModified
  • 2012 (xsd:gyear)
?:datePublished
  • 2012 (xsd:gyear)
?:duplicate
?:hasFulltext
  • false (xsd:boolean)
is ?:hasPart of
?:inLanguage
  • Deutsch (DE) (xsd:string)
?:isbn
  • 9783827423900 ()
?:libraryLocation
is ?:mainEntity of
?:name
  • Daten und Statistik : eine praktische Einführung für den Bachelor in Psychologie und Sozialwissenschaften (xsd:string)
?:provider
?:publicationType
  • Buch (de)
  • Monographie (xsd:string)
  • book (en)
?:publisher
?:sourceInfo
  • Berlin u.a.: Springer VS, 2012.- XI, 338 S., graph. Darst. (xsd:string)
  • GESIS-BIB (xsd:string)
rdf:type