Statistik (Fach) / E-TESTs 07 (Lektion)
In dieser Lektion befinden sich 19 Karteikarten
Berechnungen 07 - 12
Diese Lektion wurde von dollinger3000 erstellt.
- 01 Führe für folgenden Datensatz eine Poisson und ... > require(MASS)> x1 <- 12:1> y1 <- c(3,4,4,0,3,12,1,10,9,0,3,49)> summary(poisReg<-glm(y1~x1, poisson)) AIC: 133.87> summary(nbReg<-glm.nb(y1~x1))AIC: 76.195> 133.87-76.195 [1] 57.675
- 02 Führe eine Poisson-Regression mit folgenden Daten ... > x2 = c(1,2,3,4,5,6,7,8,9,10,11,12)> y2 = c(4, 7, 4, 7, 10, 6, 6, 11, 10, 9, 10, 10)> Reg<-glm(y2~x2, poisson)> residuals(Reg, type="pearson") > residuals(Reg, type="deviance")> rstudent(Reg)b. studentised ...
- 03 Um wieviel nimmt die deviance ab, wenn wir für ... > x <- 1:20> y <- c(3.7,6.8,4.2,4.2,2.8,4.1,3.6,2.8,2.6,2.4,0.4,-1.1,-1.6,-2,-3.4,-5.3,-4.9,-7.3,-8.7,-11.3)> summary(glm(y~x, gaussian)) Residual deviance: 47.666 on 18 degrees of freedom > summary(glm(y~poly(x,2), ...
- 04*** Hier ein Datensatz: bsp > bsp <- data.frame("Faktor"=rep(LETTERS[1:4], each=10), "Anzahl"=c(3, 3, 4, 7, 2, 7,7, 5, 5, 1, 4, 4, 7, 5, 8, 6, 7, 13, 5, 8, 4, 1, 2, 0, 1, 1, 0, 1, 4, 1, 3, 4, 3, 2, 5, 4, 5, 1, 4, 3))> attach(bsp) ...
- 05 Rechne mit folgenden Daten eine GLM. Gib dann den ... > Jannes <- data.frame("highscore.verbessert"=c("nein", "nein", "ja", "ja", "nein","nein", "ja", "ja", "ja", "ja"), "stunden.gespielt"=c(0.3, 0.5, 0.5, 0.7, 1, 1, 1.5,2, 2.2, 2.5))> attach(Jannes) > plot(highscore.verbessert~stunden.gespielt)> ...
- 17*** Die Hirschkühe (engl. "hind") auf Rhum haben ... > hinds <- data.frame("name"=c("Lucy", "St. Isabel", "Caro", "Ginger", "Spotty",+ "Judy", "Pat", "Tiny Joe", "Laura", "Antonia"),+ "male"=c(2, 1, 4, 4, 5, 2, 4, 3, 3, 2), "female"=c(5, 6, 4, 3, 3, 5, ...
- 07*** Im folgenden Datensatz werden monatliche Todesfälle ... > lungdeaths <- data.frame("gender"=rep(c("male", "female"), each=72),"deaths"=c(as.vector(mdeaths), as.vector(fdeaths)))> attach(lungdeaths)> View(lungdeaths) #Anova kann durchgeführt werden, da die ...
- 08 Führe für folgenden Datensatz eine Poisson-Regression ... > bsp <- data.frame("Faktor"=rep(LETTERS[1:4], each=10), "Anzahl"=c(3,3,4,6,2,7,7,5,5,1,4,4,7,5,8,6,7,13,5,8,4,1,2,3,2,4,5,2,4,5,3,4,4,3,5,4,5,3,4,3))> attach(bsp)> regbsp<-glm(Anzahl~Faktor, poisson)> ...
- 09 Im Datensatz "OrchardSprays" (laden mittels data(OrchardSprays)) ... > data(OrchardSprays)> attach(OrchardSprays)> View(OrchardSprays) #um zu sehen, wie die Spalten bzw. die Variablen heißen> aovOS<-aov(decrease~treatment) > TukeyHSD(aovOS) ...
- 10 Welchen Unterschied kann ich als signifikant nachweisen ... > power.t.test(n=72, sd=17.2, sig.level=0.01, power=0.9, delta=NULL) delta = 11.19
- 11 Ich finde bei einer Untersuchung keinen signifikanten ... > power.t.test(n=1322, delta=1, sig.level=0.05, power=0.85, sd=NULL) wo-sample t test power calculation n = 1322 delta = 1 sd = 8.577136 sig.level = 0.05 power = 0.85 alternative = two.sided NOTE: n is ...
- 18*** In einem Kalium(Phosphor)-Düngeexperiment (laden ... > require(MASS)> data(npk)> attach(npk) > summary(aov(yield~K)) P = 0.116 > summary(aov(yield~K + Error(block)))P = 0.0715 > 0.116-0.0715 Ergebnis: 0.045
- 12 Wir erhalten bei einer Analyse folgende Modellausgabe: ... = (Intercept) + (Effekt von Alter*Alter) + (Effekt von 323) + (Interaktion von Alter und 323) = (I)+(EA*A)+(E1)+(E2*A) = (-0.660144) + (2.608216*22) + (- 0.218252) + (0.040378*22) = 57.39067 = 57,4
- 13*** Reduziere folgendes Modell so weit wie möglich. ... > set.seed(14)> A <- runif(20, 0, 100)> B <- rnorm(20, 15, 5)> C <- runif(20, 0, 1)> D <- runif(20, 0, 1000)> y <- 2+2*B + 10*B*C + rnorm(20, 0, 10)> fm <- glm(y ~ (A+B+C+D)^2)> anova(fm, test="F")…> ...
- 14*** Der Datensatz warpbreaks (laden mittels: data(warpbreaks)) ... > data(warpbreaks)> attach(warpbreaks)> require(lattice)> fmbreaks<-glm(breaks~wool*tension, family=quasipoisson)> anova(fmbreaks) > summary(lm(fmbreaks)) > 44.556-20.000[1] 24.556 = 25 für andere Aufgabe ...
- 15 Es ist wichtig, die Variablen bei einer PCA zu ... set.seed(222)> A <- runif(20, 0, 100)> B <- rnorm(20, 15, 5)> C <- runif(20, 0, 1)> D <- runif(20, 0, 1000)> E <- rnorm(20, 15, 5)> F <- rnorm(20, 15, 5)> dats <- cbind(A, B, C, D, E, F)> View(dats)> ...
- 16*** Reduziere folgendes Modell so weit wie möglich ... > set.seed(14)> A <- runif(23, 0, 100)> B <- rnorm(23, 15, 5)> C <- runif(23, 0, 1)> D <- runif(23, 0, 1000)> y <- 2+2*B + 10*B*C + rnorm(23, 0, 10)> fm <- glm(y~ (A+B+C+D)^2)> anova(fm, test=”F”) ...
- 19*** Ein Kollege in Schweden und Du analysieren denselben ... set.seed (44)A <- round(runif(23, 0, 100), 2)B <- round(rnorm(23, 15, 5), 2)y <- 0.5*A - 0.5*B + 0.25*A*B + rnorm(23, 0,10)fm <- lm(y~A*B) # Modell fittensummary(fm)anova(fm)predict(fm, newdata=data.frame("A"=10, ...
- 06 Berechne den Standardfehler des Mittelwerts für ... > a<-c(20.8, 18.3, 23.7, 27.2, 24, 24.4, 18.9, 24.1, 20.2, 26.3, 20.9, 15.8, 18.8) >install.packages("plotrix") > library(plotrix)> std.error(a)[1] 0.9471279 Der Wert muss zwischen 0.8971279 und 0.9971279 ...