Professional Documents
Culture Documents
69. We wnioskowaniu „z populacji o próbie” określamy rozkład średniej z próby. Dlaczego jedynie „rozkład”, a nie
wartość średniej?
70. W jakim przypadku rozkład średniej z próby jest identyczny z rozkładem parametru w populacji? Uzasadnij
odpowiedź opisowo oraz rachunkowo.
71. W jakich przypadkach losowanie jednoznacznie wyznaczy średnią z próby? Uzasadnij odpowiedź opisowo oraz
rachunkowo.
73. Jak – na gruncie wnioskowania statystycznego - rozumieć termin „statystyka”? Co to jest estymator? Odpowiedź
ilustruj przykładami.
Statystyką nazywamy każdy parametr opisujący próbę. Ściślej: statystyką nazywamy każdą funkcję zmiennych losowych, jaką jest
próba.
Estymatorem parametru θ nazywamy każdą statystykę, która służy do oszacowania wartości parametru θ w populacji generalnej.
W szczególności estymatorem jest średnia z próby – jeśli przy jej pomocy szacujemy („estymujemy”) wartość oczekiwaną w
populacji generalnej.
74. Jakie cechy posiada „dobry” estymator? Czy każda statystyka jest dobrym estymatorem?
Nie każdy estymator jest odpowiednim estymatorem.
„Dobry” estymator powinien być:
a) nieobciążony (średnia wartość parametru w próbie (średnia z wielu losowań) pobranej z populacji generalnej jest równa
wartości tego parametru w populacji generalnej)
b) zgodny (ze wzrostem liczebności próby maleje statystyczna różnica pomiędzy wartością parametru θ w próbie oraz w populacji;
w granicy dąży do zera)
c) asymptotycznie efektywny (ze wzrostem liczebności próby do nieskończoności, wariancja estymatora w próbie zbliża się do
wariancji estymatora w populacji; w granicy różnica między nimi maleje do zera).
Wszystkie te właściwości posiada np. średnia (średnia arytmetyczna) z próby.
80. Im współczynnik ufności większy, tym przedział ufności szerszy. Czy to logiczne? Wyjaśnij to zjawisko.
1
oszacowanie, nie wiemy, ale mamy 90% pewności, że do niego należy. Pozostałe 10% prób nietrafnie oszacuje przedział, w
którym zawiera się wartość oczekiwana m.
83. Czy rozkład t-Studenta jest odmianą rozkładu normalnego? Kiedy z niego korzystamy?
Rozklad t-Sudenta jest inny niż rozkład normalny, ale wyraźnie do niego zbliżony.
84. Dlaczego w podobnych zadaniach czasem korzystamy, a czasem nie korzystamy z rozkładu t-Studenta?
85. Dlaczego testowanie hipotez tak wiele znaczy w nauce, medycynie i technice?
Testowanie hipotez znaczy wiele w nauce, medycynie i technice ponieważ bez testowania hipotez nie byłaby możliwa praca
żadnego naukowca. Rozwój nauki opiera się na formułowaniu hipotez, które potem są weryfikowane eksperymentalnie.
89. Czym różnią się hipotezy parametryczne od nieparametrycznych? Czym różnią się testy zgodności od testów istotności?
Hipotezy parametryczne estymują nieznane parametry badanych populacji. Hipotezy parametryczne dotyczące jednej populacji
oceniają, każda z osobna, wielkość parametrów opisujących populację G. Na przykład stwierdzają, że wariancja w badanej
populacji jest większa (mniejsza; równa) od wartości wskazanej w hipotezie. Hipotezy dotyczące dwu populacji porównują
odpowiadające sobie parametry obu populacji. Na przykład stwierdzają, że wyniki leczenia starą i nową metodą (ściślej: wartości
oczekiwane dwu populacji) są (nie są) takie same albo.
Hipotezy nieparametryczne estymują rozkład populacji (rozkład badanej cechy). Hipotezy nieparametryczne dotyczące jednej
populacji oceniają, czy badana populacja ma rozkład zgodny z naszym przypuszczeniem. Na przykład (domniemanie raczej
fałszywe), że w rozkład ocen z matematyki (studia na politechnice) jest rozkładem równomiernym. Przypuszczenia dotyczące dwu
populacji oceniają, czy rozkłady badanych populacji są takie same.
90. Czym różnią się współczynniki ufności od poziomów istotności? Dlaczego jedne są takie duże, a drugie takie małe?
Poziom istotności jest taki mały, ponieważ jest to maksymalne dopuszczalne prawdopodobieństwo popełnienia błędu ( I rodzaju).
Natomiast współczynniki ufności są tak wysokie, ponieważ jest to prawdopodobieństwo, że wynik pomiaru zawiera się w
przedziale domkniętym ograniczonym niepewnością rozszerzoną pomiaru.
Oznacza to, że potrzebujemy zminimalizować ryzyko błędu, oraz zmaksymalizować prawdopodobieństwo powodzenia. Bez sensu
byłoby obliczać próbę, dla której ryzyko błędu byłoby wysokie, lub prawdopodobieństwo byłoby niskie.
91. Dlaczego dopuszczalny metodologicznie poziom istotności nie przekracza liczby 0,05? Jak rozumieć owe „0,05”?
Dopuszczalny metodologicznie poziom istotności nie przekracza liczby 0.05, ponieważ 0.05 to maksymalne dopuszczalne
prawdopodobieństwo popełnienia błędu I rodzaju. Określa to tym samym maksymalne ryzyko błędu, jakie badacz jest skłonny
zaakceptować. Tym samym rezultaty badawcze w co najmniej 95 przypadkach na sto są trafne. To wystarcza, aby je przyjąć jako
wiarygodne.
Natomiast 0.05 oznacza, że przeciętnie co najwyżej w pięciu przypadkach na sto wystąpiły przypadkowe okoliczności, dzięki
którym eksperyment przyniósł pomyślne wyniki.
92. Na czym polega błąd I rodzaju? Na czym polega błąd II rodzaju? Objaśnij kwestię na konkretnym przykładzie.
Błąd I rodzaju polega na odrzuceniu hipotezy (w naszym przypadku hipotezy zerowej), gdy w rzeczywistości jest ona prawdziwa
(tym samym fałszywa jest hipoteza alternatywna). Błąd II rodzaju polega na przyjęciu hipotezy (w naszym przypadku hipotezy
zerowej), gdy faktycznie jest ona fałszywa (tym samym prawdziwa jest hipoteza alternatywna). Obydwa błędy popełniamy zawsze
z określonym (rzadko takim samym) prawdopodobieństwem. Byłoby dobrze, gdyby test statystyczny, którym się posługujemy,
minimalizował obydwa błędy jednocześnie. To nie jest możliwe. Zmniejszając prawdopodobieństwo popełnienia błędu I rodzaju,
zwiększamy prawdopodobieństwo błędu II rodzaju.
94. Czym różnią się hipotezy jednostronne od hipotez dwustronnych? Podaj ich przykłady.
Hipotezę dwustronną tworzy para: hipoteza zerowa oraz hipoteza alternatywna, która jest negacją hipotezy zerowej (dla przykładu:
Hipotezę jednostronną tworzy para: hipoteza zerowa oraz hipoteza alternatywna, która jest przeciwieństwem hipotezy zerowej (dla
przykładu: H0: m =180, H1: m < 180 cm; albo: H0: m = 180 cm, H1: m > 180 cm). Hipoteza dwustronna jest sumą logiczną obydwu
hipotez jednostronnych: „H0: m = 180, H1: m ≠ 180 cm ⇔ (H0: m =180, H1: m < 180 cm) ∨(H0: m = 180 cm, H1: m > 180 cm).
95. Czym różnią się tablice statystyczne od tablic rozkładu prawdopodobieństwa? A może niczym się nie różnią?
Tablice statystyczne mają inną postać niż np. tablice rozkładu Poissona. W tablicach rozkładu prawdopodobieństwa argumentami
są wartości zmiennej losowej (np. wartości zmiennej losowej standaryzowanej U w rozkładzie normalnym), ewentualnie wartości
2
zmiennej losowej uzupełnione o dodatkową zmienną (w rozkładzie Poissona liczba sukcesów uzupełniona o wartość liczby λ).
Tym argumentom przyporządkowane jest określone prawdopodobieństwo. W tablicach statystycznych argumentami są wartości
parametru α (zawsze) oraz (często) liczba tzw. stopni swobody, a wartościami wartości rozważanej statystyki.
Konstrukcja tablic statystycznych jest podobna do konstrukcji tablicy rozkładu t-Studenta. Tak jak tam, często pojawia się w nich
dodatkowy parametr ν („liczba stopni swobody”). „ν” w różny sposób zależy od liczby elementów w próbie, często (jak w
rozkładzie t-Studenta) równa się liczbie elementów próby pomniejszonej o 1. (Wielkość próby istotnie wpływa na ocenę stopnia
niepewności: im próba większa, tym wartości rozważanej statystyki maleją.) Po drugie, w miejsce wartości zmiennej losowej
pojawiają się wartości parametru α (a więc określone prawdopodobieństwo): 0,10; 0,05; 0,02; 0,001; 0,0005. Na przecięciu ν oraz
α statystyk odczytuje tzw. wartość krytyczną testu. Gdy statystyka, obliczona zgodnie z instrukcją testu, przekracza wielkość
krytyczną testu, hipotezę zerową odrzucamy i przyjmujemy hipotezę alternatywną. (W niektórych testach odwrotnie: wartość
krytyczna nie może być przekroczona.)
Testy zgodności sprawdzają trafność hipotez nieparametrycznych: przypuszczeń dotyczących natury rozkładu badanej cechy w
populacji generalnej.
Testy statystyczne nie pokazują bezpośrednio, jaki rozkład ma badana cecha. Sprawdzenie odbywa się krok po kroku. Każdy test
ocenia jedną konkretną hipotezę – na przykład przypuszczenie, że badany rozkład jest rozkładem równomiernym. Jeżeli
weryfikacja tego nie potwierdza, należy sprawdzić kolejną koncepcję, np. czy badany rozkład jest rozkładem dwumianowym. Itd.
97. Objaśnij terminy „obszar krytyczny” oraz „wartość krytyczna”. Podaj przykłady.
Obszar krytyczny - w statystyce zbiór wartości rozkładu funkcji testowej w teście statystycznym, których wystąpienie, przy
założeniu prawdziwości hipotezy zerowej (H0), jest wystarczająco mało prawdopodobne, żeby (empiryczna) realizacja zmiennej
losowej mieszcząca się w obszarze krytycznym pozwalała na odrzucenie tej hipotezy.
Wartość krytyczna – w statystyce, wartość odpowiadająca określonemu poziomowi ufności. Wartość krytyczna rozdziela
możliwe do uzyskania wyniki testu statystycznego na dwie grupy: wyniki niedające podstaw do odrzucenia hipotezy zerowej i
wyniki dające podstawę do odrzucenia hipotezy zerowej. W przypadku testów jednostronnych, jeśli moduł wyniku testu jest
większy od wartości krytycznej to jest to podstawa do odrzucenia hipotezy zerowej na rzecz hipotezy alternatywnej, w
przeciwnym wypadku mówimy, że nie ma podstaw do odrzucenia hipotezy zerowej:
98. W czym wyraża się podobieństwo pomiędzy konstrukcją przedziałów ufności a testowanie hipotez statystycznych?
W testach istotności dla opisu jednej populacji weryfikujemy przypuszczenia dotyczące parametrów (wartości
oczekiwanej lub wariancji) populacji określonej rozkładem normalnym. Wykonywane tu obliczenia przypominają
konstrukcję przedziałów ufności. Przy weryfikacji hipotez dotyczących wartości oczekiwanej (przedstawiamy tę
grupę testów) należy odróżnić, jak poprzednio, trzy sytuacje:
a) gdy znamy odchylenie standardowe w populacji generalnej,
b) gdy nie znany odchylenia standardowego w populacji generalnej, ale próba jest na tyle liczna (n > 120), iż możemy
przyjąć, iż δG = s,
c) gdy nie znany odchylenia standardowego w populacji generalnej, a liczność próby nie przekracza 120.
We wszystkich trzech przypadkach obliczenie statystyk testowych przypomina rachunki związane z ustaleniem
przedziałów ufności. Oznaczmy, jak poprzednio, x: średnia z próby, mG: nieznana, rzeczywista wartość oczekiwana,
m0: przypuszczalna wartość oczekiwana, wskazana w hipotezie zerowej, δG: odchylenie standardowe w populacji, s:
odchylenie standardowe w próbie, n: liczność próby. Testujemy hipotezę zerową: „H 0: mG = m0”, względem hipotezy
alternatywnej: „H1: mG ≠ m0”.
3
Należy odróżnić dwie odmiany testu χ2: test χ2 zgodności oraz test χ2 niezależności. W pierwszym sprawdzamy, czy trafne są
przypuszczenia dotyczące rozkładu badanej cechy; w drugim weryfikujemy hipotezę o zależności korelacyjnej dwu cech. W
obydwu przypadkach sprawdzamy, czy rozkłady obydwu cech są takie same. Hipotezą zerową jest teza o identyczności rozkładu
rzeczywistego i domniemanego; hipotezą alternatywną – zaprzeczenie hipotezy zerowej.