You are on page 1of 4

WNIOSKOWANIE STATYSTYCZNE

68. Na czym polega wnioskowanie statystyczne? Odróżnij jego dwie odmiany.


1. wnioskowanie statystyczne „z całości o części”: znamy charakterystykę populacji generalnej G (konkretnie, parametry rozkładu
cechy C w populacji generalnej G) – i na tej podstawie orzekamy o parametrach rozkładu cechy C w próbie, pobranej losowo
populacji G.
2. wnioskowanie statystyczne „z części o całości”: znamy parametry próby – i na tej podstawie orzekamy o parametrach rozkładu
cechy C w populacji generalnej.

69. We wnioskowaniu „z populacji o próbie” określamy rozkład średniej z próby. Dlaczego jedynie „rozkład”, a nie
wartość średniej?

70. W jakim przypadku rozkład średniej z próby jest identyczny z rozkładem parametru w populacji? Uzasadnij
odpowiedź opisowo oraz rachunkowo.

71. W jakich przypadkach losowanie jednoznacznie wyznaczy średnią z próby? Uzasadnij odpowiedź opisowo oraz
rachunkowo.

72. Jak rozumieć słowo „estymacja”? Co to znaczy „estymować”?


Estymacja może być rozumiana jako szacowanie (brak polskiego odpowiednika).
Estymacją nazywamy operację wnioskowania parametrów próby o parametrach charakteryzujących populację.

73. Jak – na gruncie wnioskowania statystycznego - rozumieć termin „statystyka”? Co to jest estymator? Odpowiedź
ilustruj przykładami.
Statystyką nazywamy każdy parametr opisujący próbę. Ściślej: statystyką nazywamy każdą funkcję zmiennych losowych, jaką jest
próba.
Estymatorem parametru θ nazywamy każdą statystykę, która służy do oszacowania wartości parametru θ w populacji generalnej.
W szczególności estymatorem jest średnia z próby – jeśli przy jej pomocy szacujemy („estymujemy”) wartość oczekiwaną w
populacji generalnej.

74. Jakie cechy posiada „dobry” estymator? Czy każda statystyka jest dobrym estymatorem?
Nie każdy estymator jest odpowiednim estymatorem.
„Dobry” estymator powinien być:
a) nieobciążony (średnia wartość parametru w próbie (średnia z wielu losowań) pobranej z populacji generalnej jest równa
wartości tego parametru w populacji generalnej)
b) zgodny (ze wzrostem liczebności próby maleje statystyczna różnica pomiędzy wartością parametru θ w próbie oraz w populacji;
w granicy dąży do zera)
c) asymptotycznie efektywny (ze wzrostem liczebności próby do nieskończoności, wariancja estymatora w próbie zbliża się do
wariancji estymatora w populacji; w granicy różnica między nimi maleje do zera).
Wszystkie te właściwości posiada np. średnia (średnia arytmetyczna) z próby.

75. Na czym polega estymacja punktowa? Podaj jej przykład.


W estymacji punktowej, zarówno jak w przedziałowej, na podstawie próby orzekamy o populacji.
W estymacji punktowej ustalamy „najbardziej prawdopodobną” wartość parametru w populacji generalnej. W jej wyniku
uzyskujemy jedną konkretną wartość parametru oraz określamy średni błąd, jaki popełniamy w estymacji.
Przykład: sondaże przedwyborcze.

76. Na czym polega estymacja przedziałowa? Podaj jej przykład.


W estymacji przedziałowej, zarówno jak w punktowej, na podstawie próby orzekamy o populacji. W estymacji przedziałowej
chcemy ustalić przedziały (tzw. „podział ufności”), w którym – z ustalonym prawdopodobieństwem (tzw. „współczynnikiem
ufności”) – zawiera się estymowany parametr.

77. Czym estymacja punktowa różni się od przedziałowej?


W obydwu przypadkach na podstawie próby orzekamy o populacji. W estymacji punktowej ustalamy „najbardziej
prawdopodobną” wartość parametru w populacji generalnej. W estymacji przedziałowej ustalamy przedział, w jakim – z
określonym prawdopodobieństwem – zawiera się badany parametr.

78. Jaka jest rola współczynników ufności? Dlaczego są takie duże?

79. Czy istnieje „najlepszy” współczynnik ufności?

80. Im współczynnik ufności większy, tym przedział ufności szerszy. Czy to logiczne? Wyjaśnij to zjawisko.

81. Jeśli przedział ufności jest większy, to lepiej, czy gorzej?

82. Jak interpretować 90% pewność oraz 90% prawdopodobieństwo?


90% prób pobranych losowo z populacji generalnej wskaże nam taką średnią arytmetyczną X, która trafnie wskaże przedział, w
którym zawiera się nieznana wartość m. Czy nasza konkretna średnia X należy do owych 90-ciu procent dających trafne

1
oszacowanie, nie wiemy, ale mamy 90% pewności, że do niego należy. Pozostałe 10% prób nietrafnie oszacuje przedział, w
którym zawiera się wartość oczekiwana m.

83. Czy rozkład t-Studenta jest odmianą rozkładu normalnego? Kiedy z niego korzystamy?
Rozklad t-Sudenta jest inny niż rozkład normalny, ale wyraźnie do niego zbliżony.

84. Dlaczego w podobnych zadaniach czasem korzystamy, a czasem nie korzystamy z rozkładu t-Studenta?

85. Dlaczego testowanie hipotez tak wiele znaczy w nauce, medycynie i technice?
Testowanie hipotez znaczy wiele w nauce, medycynie i technice ponieważ bez testowania hipotez nie byłaby możliwa praca
żadnego naukowca. Rozwój nauki opiera się na formułowaniu hipotez, które potem są weryfikowane eksperymentalnie.

86. Dlaczego testowanie hipotez tak często jest obowiązkiem eksperymentatora?


Testowanie hipotez często jest obowiązkiem eksperymentatora, ponieważ w swej konstrukcji test statystyczny przypomina
algorytm postępowania. Osoba, która testuje hipotezę, często nie wie, dlaczego ma wykonać te, a nie inne czynności rachunkowe.
Wystarcza, że zostanie poinformowana, co ma obliczyć, do jakiej tabeli zajrzeć i jak zinterpretować odczytaną liczbę.

87. Na czym polega testowanie hipotez: przedstaw metodologiczny aspekt sprawy.

88. Na czym polega testowanie hipotez: przedstaw rachunkowy aspekt sprawy.

89. Czym różnią się hipotezy parametryczne od nieparametrycznych? Czym różnią się testy zgodności od testów istotności?
Hipotezy parametryczne estymują nieznane parametry badanych populacji. Hipotezy parametryczne dotyczące jednej populacji
oceniają, każda z osobna, wielkość parametrów opisujących populację G. Na przykład stwierdzają, że wariancja w badanej
populacji jest większa (mniejsza; równa) od wartości wskazanej w hipotezie. Hipotezy dotyczące dwu populacji porównują
odpowiadające sobie parametry obu populacji. Na przykład stwierdzają, że wyniki leczenia starą i nową metodą (ściślej: wartości
oczekiwane dwu populacji) są (nie są) takie same albo.
Hipotezy nieparametryczne estymują rozkład populacji (rozkład badanej cechy). Hipotezy nieparametryczne dotyczące jednej
populacji oceniają, czy badana populacja ma rozkład zgodny z naszym przypuszczeniem. Na przykład (domniemanie raczej
fałszywe), że w rozkład ocen z matematyki (studia na politechnice) jest rozkładem równomiernym. Przypuszczenia dotyczące dwu
populacji oceniają, czy rozkłady badanych populacji są takie same.

90. Czym różnią się współczynniki ufności od poziomów istotności? Dlaczego jedne są takie duże, a drugie takie małe?
Poziom istotności jest taki mały, ponieważ jest to maksymalne dopuszczalne prawdopodobieństwo popełnienia błędu ( I rodzaju).
Natomiast współczynniki ufności są tak wysokie, ponieważ jest to prawdopodobieństwo, że wynik pomiaru zawiera się w
przedziale domkniętym ograniczonym niepewnością rozszerzoną pomiaru.
Oznacza to, że potrzebujemy zminimalizować ryzyko błędu, oraz zmaksymalizować prawdopodobieństwo powodzenia. Bez sensu
byłoby obliczać próbę, dla której ryzyko błędu byłoby wysokie, lub prawdopodobieństwo byłoby niskie.

91. Dlaczego dopuszczalny metodologicznie poziom istotności nie przekracza liczby 0,05? Jak rozumieć owe „0,05”?
Dopuszczalny metodologicznie poziom istotności nie przekracza liczby 0.05, ponieważ 0.05 to maksymalne dopuszczalne
prawdopodobieństwo popełnienia błędu I rodzaju. Określa to tym samym maksymalne ryzyko błędu, jakie badacz jest skłonny
zaakceptować. Tym samym rezultaty badawcze w co najmniej 95 przypadkach na sto są trafne. To wystarcza, aby je przyjąć jako
wiarygodne.
Natomiast 0.05 oznacza, że przeciętnie co najwyżej w pięciu przypadkach na sto wystąpiły przypadkowe okoliczności, dzięki
którym eksperyment przyniósł pomyślne wyniki.

92. Na czym polega błąd I rodzaju? Na czym polega błąd II rodzaju? Objaśnij kwestię na konkretnym przykładzie.
Błąd I rodzaju polega na odrzuceniu hipotezy (w naszym przypadku hipotezy zerowej), gdy w rzeczywistości jest ona prawdziwa
(tym samym fałszywa jest hipoteza alternatywna). Błąd II rodzaju polega na przyjęciu hipotezy (w naszym przypadku hipotezy
zerowej), gdy faktycznie jest ona fałszywa (tym samym prawdziwa jest hipoteza alternatywna). Obydwa błędy popełniamy zawsze
z określonym (rzadko takim samym) prawdopodobieństwem. Byłoby dobrze, gdyby test statystyczny, którym się posługujemy,
minimalizował obydwa błędy jednocześnie. To nie jest możliwe. Zmniejszając prawdopodobieństwo popełnienia błędu I rodzaju,
zwiększamy prawdopodobieństwo błędu II rodzaju.

93. Dlaczego testy statystyczne nastawione są na eliminację błędu I rodzaju?


Testy statystyczne nastawione są na eliminację błędu I rodzaju, ponieważ błąd I rodzaju jest błędem groźniejszym. powoduje on
nieuprawnione odrzucenie hipotezy zerowej, a więc uznanie za prawdziwe wyników niepewnego eksperymentu. Nauka ze swej
istoty jest konserwatywna: przedkłada zabezpieczenie się przed błędem nad odkrycie nowych prawd („jeden fałsz przynosi więcej
szkody niż dziesięć nowych prawd pożytku”).

94. Czym różnią się hipotezy jednostronne od hipotez dwustronnych? Podaj ich przykłady.
Hipotezę dwustronną tworzy para: hipoteza zerowa oraz hipoteza alternatywna, która jest negacją hipotezy zerowej (dla przykładu:
Hipotezę jednostronną tworzy para: hipoteza zerowa oraz hipoteza alternatywna, która jest przeciwieństwem hipotezy zerowej (dla
przykładu: H0: m =180, H1: m < 180 cm; albo: H0: m = 180 cm, H1: m > 180 cm). Hipoteza dwustronna jest sumą logiczną obydwu
hipotez jednostronnych: „H0: m = 180, H1: m ≠ 180 cm ⇔ (H0: m =180, H1: m < 180 cm) ∨(H0: m = 180 cm, H1: m > 180 cm).

95. Czym różnią się tablice statystyczne od tablic rozkładu prawdopodobieństwa? A może niczym się nie różnią?
Tablice statystyczne mają inną postać niż np. tablice rozkładu Poissona. W tablicach rozkładu prawdopodobieństwa argumentami
są wartości zmiennej losowej (np. wartości zmiennej losowej standaryzowanej U w rozkładzie normalnym), ewentualnie wartości

2
zmiennej losowej uzupełnione o dodatkową zmienną (w rozkładzie Poissona liczba sukcesów uzupełniona o wartość liczby λ).
Tym argumentom przyporządkowane jest określone prawdopodobieństwo. W tablicach statystycznych argumentami są wartości
parametru α (zawsze) oraz (często) liczba tzw. stopni swobody, a wartościami wartości rozważanej statystyki.

Konstrukcja tablic statystycznych jest podobna do konstrukcji tablicy rozkładu t-Studenta. Tak jak tam, często pojawia się w nich
dodatkowy parametr ν („liczba stopni swobody”). „ν” w różny sposób zależy od liczby elementów w próbie, często (jak w
rozkładzie t-Studenta) równa się liczbie elementów próby pomniejszonej o 1. (Wielkość próby istotnie wpływa na ocenę stopnia
niepewności: im próba większa, tym wartości rozważanej statystyki maleją.) Po drugie, w miejsce wartości zmiennej losowej
pojawiają się wartości parametru α (a więc określone prawdopodobieństwo): 0,10; 0,05; 0,02; 0,001; 0,0005. Na przecięciu ν oraz
α statystyk odczytuje tzw. wartość krytyczną testu. Gdy statystyka, obliczona zgodnie z instrukcją testu, przekracza wielkość
krytyczną testu, hipotezę zerową odrzucamy i przyjmujemy hipotezę alternatywną. (W niektórych testach odwrotnie: wartość
krytyczna nie może być przekroczona.)

96. Do czego służą testy istotności? Do czego służą testy zgodności?


Wśród testów istotności (ogólna nazwa testów stosowanych do weryfikacji hipotez parametrycznych) odróżnić należy:
1) testy istotności dla opisu jednej populacji,
2) testy istotności do porównania dwu populacji, w tym
a) testy istotności dla próbek związanych,
b) testy istotności dla próbek niezwiązanych.
W pierwszym przypadku weryfikujemy przypuszczenia dotyczące jednej konkretnej populacji, z której pobieramy n-elementową
próbę. W drugim przypadku pobieramy próby z dwu populacji. W testach dla próbek związanych elementy obu prób (obydwie
powinny być tak samo liczne) łączymy w pary: każdemu „xi” (elementowi pierwszej próby) przyporządkowujemy odpowiednie
„yi” (element drugiej próby). Najczęściej są to wartości pewnej cechy jednego i tego samego obiektu przed- i po- wykonaniu
czynności eksperymentalnych. Na przykład stan zdrowia pacjenta przed- i po- zastosowaniu nowego lekarstwa w kuracji. W
testach dla próbek niezwiązanych tego rodzaju połączenie w pary nie jest konieczne. W tym wypadku próby nie muszą być tak
samo liczne.

Testy zgodności sprawdzają trafność hipotez nieparametrycznych: przypuszczeń dotyczących natury rozkładu badanej cechy w
populacji generalnej.
Testy statystyczne nie pokazują bezpośrednio, jaki rozkład ma badana cecha. Sprawdzenie odbywa się krok po kroku. Każdy test
ocenia jedną konkretną hipotezę – na przykład przypuszczenie, że badany rozkład jest rozkładem równomiernym. Jeżeli
weryfikacja tego nie potwierdza, należy sprawdzić kolejną koncepcję, np. czy badany rozkład jest rozkładem dwumianowym. Itd.

97. Objaśnij terminy „obszar krytyczny” oraz „wartość krytyczna”. Podaj przykłady.
Obszar krytyczny - w statystyce zbiór wartości rozkładu funkcji testowej w teście statystycznym, których wystąpienie, przy
założeniu prawdziwości hipotezy zerowej (H0), jest wystarczająco mało prawdopodobne, żeby (empiryczna) realizacja zmiennej
losowej mieszcząca się w obszarze krytycznym pozwalała na odrzucenie tej hipotezy.
Wartość krytyczna – w statystyce, wartość odpowiadająca określonemu poziomowi ufności. Wartość krytyczna rozdziela
możliwe do uzyskania wyniki testu statystycznego na dwie grupy: wyniki niedające podstaw do odrzucenia hipotezy zerowej i
wyniki dające podstawę do odrzucenia hipotezy zerowej. W przypadku testów jednostronnych, jeśli moduł wyniku testu jest
większy od wartości krytycznej to jest to podstawa do odrzucenia hipotezy zerowej na rzecz hipotezy alternatywnej, w
przeciwnym wypadku mówimy, że nie ma podstaw do odrzucenia hipotezy zerowej:

98. W czym wyraża się podobieństwo pomiędzy konstrukcją przedziałów ufności a testowanie hipotez statystycznych?
W testach istotności dla opisu jednej populacji weryfikujemy przypuszczenia dotyczące parametrów (wartości
oczekiwanej lub wariancji) populacji określonej rozkładem normalnym. Wykonywane tu obliczenia przypominają
konstrukcję przedziałów ufności. Przy weryfikacji hipotez dotyczących wartości oczekiwanej (przedstawiamy tę
grupę testów) należy odróżnić, jak poprzednio, trzy sytuacje:
a) gdy znamy odchylenie standardowe w populacji generalnej,
b) gdy nie znany odchylenia standardowego w populacji generalnej, ale próba jest na tyle liczna (n > 120), iż możemy
przyjąć, iż δG = s,
c) gdy nie znany odchylenia standardowego w populacji generalnej, a liczność próby nie przekracza 120.
We wszystkich trzech przypadkach obliczenie statystyk testowych przypomina rachunki związane z ustaleniem
przedziałów ufności. Oznaczmy, jak poprzednio, x: średnia z próby, mG: nieznana, rzeczywista wartość oczekiwana,
m0: przypuszczalna wartość oczekiwana, wskazana w hipotezie zerowej, δG: odchylenie standardowe w populacji, s:
odchylenie standardowe w próbie, n: liczność próby. Testujemy hipotezę zerową: „H 0: mG = m0”, względem hipotezy
alternatywnej: „H1: mG ≠ m0”.

99. W jakich sytuacjach statystyk korzysta z rozkładu chi-kwadrat?


Wartość krytyczną testu chi-kwadrat odnajdujemy w tablicy rozkładu χ2 na przecięciu liczby stopni swobody oraz liczby 1-α.
Jeżeli wartość statystyki testowej jest większa lub równa od wartości krytycznej, hipotezę zgodności (odpowiednio: hipotezę
niezależności) odrzucamy. W przeciwnym przypadku uznajemy, że brak podstaw do odrzucenia hipotezy zerowej.
100. Na czym polega test χ2? Wskaż jego odmiany.
W teście χ2 porównujemy liczności rzeczywiste (zaobserwowane w próbie) z licznościami teoretycznymi (oczekiwanymi,
obliczonymi na podstawie hipotezy). O wyniku testu rozstrzyga różnica pomiędzy wartościami zaobserwowanymi a
oczekiwanymi. Im odstępstwa są mniejsze, tym większe jest prawdopodobieństwo trafności weryfikowanej tezy.

3
Należy odróżnić dwie odmiany testu χ2: test χ2 zgodności oraz test χ2 niezależności. W pierwszym sprawdzamy, czy trafne są
przypuszczenia dotyczące rozkładu badanej cechy; w drugim weryfikujemy hipotezę o zależności korelacyjnej dwu cech. W
obydwu przypadkach sprawdzamy, czy rozkłady obydwu cech są takie same. Hipotezą zerową jest teza o identyczności rozkładu
rzeczywistego i domniemanego; hipotezą alternatywną – zaprzeczenie hipotezy zerowej.

You might also like