Słowniczek
Na tej stronie znajduje się słownik wszystkich terminów i koncepcji statystycznych dostępnych w serwisie Statorials.
#
MA
- Skorygowany iloraz szans
- Zalety i wady stosowania średniej
- Zalety i wady stosowania mediany
- Zalety i wady stosowania odchylenia standardowego
- Stronniczość agregacji
- Alternatywna hipoteza
- ANOVA vs regresja
- ANOVA z replikacją lub bez
- ANOVA z próbkami o różnej wielkości
- Poprzednie zmienne
- Kontrola stronniczości
- Założenie równej wariancji
- Założenie niepodległości
- Założenie normalności
- Założenia ANOVA
- Założenia MANOVA
- Założenia regresji liniowej
- Założenia regresji logistycznej
- Założenia dotyczące wielokrotnej regresji liniowej
- Sparowane założenia testu t
- Założenia korelacji Pearsona
- Założenia ANOVA dla powtarzanych pomiarów
- hipotezy testu t
- Ryzyko, które można przypisać
B
- Działki z łodygami i liśćmi położone jeden po drugim
- Wybór wsteczny
- Zrównoważona precyzja
- Zrównoważone lub niezrównoważone projekty
- Test Bartletta na jednorodność wariancji
- Procedura Benjaminiego-Hochberga
- stronniczość Berksona
- Bernoulliego a rozkład dwumianowy
- Poziom Bety
- Rozkłady bimodalne
- Założenia dotyczące rozkładu dwumianowego
- Eksperymenty dwumianowe
- Rozkład dwumianowy lub geometryczny
- Rozkład dwumianowy i rozkład Poissona
- Analiza dwuwymiarowa
- Pole Blanda-Altmana
- Bloking
- Korekta Bonferroniego
- Procenty wykresu pudełkowego
- Różnica Braya-Curtisa
- Wynik Briera
VS
- Statystyka C modelu regresji logistycznej
- Ręcznie oblicz wartość P na podstawie wyniku Z
- Ręcznie oblicz współczynnik korelacji Pearsona
- Oblicz R-kwadrat ręcznie
- Oblicz średnią z tabeli częstotliwości
- Oblicz medianę z tabeli częstości
- Oblicz modę z tabeli częstotliwości
- Oblicz percentyl na podstawie średniej i odchylenia standardowego
- Czy wynik Z-Score może być ujemny?
- Czy kurtoza może być ujemna?
- Czy wariancja może być ujemna?
- Efekty przeniesienia
- Przypadki w statystyce
- Dystrybucja kategoryczna
- Zmienne kategoryczne i ilościowe
- Efekty sufitowe
- Skłonność do tendencji centralnej
- Ręczny test chi-kwadrat
- Test chi-kwadrat vs ANOVA
- Wybierz zmienną, którą chcesz umieścić na osi X i Y
- Testowanie żywności
- Granice klas
- Przerwy w zajęciach
- Granice klas
- Punkty środkowe klasy
- Rozmiar klasy
- Próbkowanie klastrowe lub próbkowanie warstwowe
- Test Q Cochrana
- Współczynnik zmienności a odchylenie standardowe
- Wspólnie kompleksowe wydarzenia
- Porównywanie wykresów pudełkowych
- Porównanie histogramu
- Porównanie krzywych ROC
- Porównanie wyników Z różnych rozkładów
- Zmienna pojęciowa
- Zmienne towarzyszące
- Ważność konkurencji
- Dystrybucja warunkowa
- Warunkowa częstotliwość względna w tabeli dwukierunkowej
- Warunki centralnego twierdzenia granicznego
- Przykłady problemów z przedziałem ufności
- Przedział ufności dla ilorazu szans
- Przedział ufności dla ryzyka względnego
- Przedział ufności dla punktu przecięcia regresji
- Przedział ufności dla nachylenia regresji
- Przedział ufności przy użyciu rozkładu F
- Poziom ufności a przedział ufności
- Prywatność a prywatność anonimowość
- Myląca zmienna
- Założenie o stałej wariancji
- Ważność zawartości
- Korekcja ciągłości
- Konwertuj wyniki Z na wyniki surowe
- Korelacja pomiędzy zmiennymi kategorycznymi
- Korelacja pomiędzy zmiennymi ciągłymi i kategorialnymi
- Korelacja a skojarzenie
- Korelacja a regresja
- Współzmienne
- Ważność kryteriów
- Kryterium zmienne
- Projekt panelu z przesunięciem krzyżowym
- Krzywa resztkowa
- Regresja krzywoliniowa
D
- Drzewa decyzyjne vs. Losowe lasy
- Stopnie swobody dla dowolnego testu T
- Wyznaczanie równej lub nierównej wariancji w testach t
- Sprawdź, czy rozkład prawdopodobieństwa jest prawidłowy
- Wyznaczanie zmiennych istotnych w modelach regresji
- Relaksujące dane
- Zmienne dychotomiczne
- Różnice między ANOVA, ANCOVA, MANOVA i MANCOVA
- Rozłączne wydarzenia
- Zdarzenia rozłączne lub niezależne
- Test Q Dixona dla wartości odstających
- Czy przyczynowość implikuje korelację?
- Wykres punktowy i histogram
- Wykresy punktowe: jak znaleźć średnią, medianę i tryb
- Zmienne fikcyjne w analizie regresji
- Atrapa zmiennej pułapki
- Test Durbina-Watsona
mi
- Problemy w praktyce praktycznych zasad
- Zmienne endogeniczne i egzogeniczne
- Dystrybucja Erlanga
- Propagacja błędów
- Szacowanie średniej i mediany histogramów
- Tryb szacowania histogramu
- Szacowanie odchylenia standardowego histogramów
- Eta do kwadratu
- Przykłady ANOVA w prawdziwym życiu
- Przykłady danych dwuwymiarowych w prawdziwym życiu
- Przykłady centralnego twierdzenia granicznego w prawdziwym życiu
- Przykłady testów Chi-kwadrat w prawdziwym życiu
- Przykłady analizy skupień w prawdziwym życiu
- Przykłady prawdopodobieństwa warunkowego w prawdziwym życiu
- Przykłady przedziałów ufności w prawdziwym życiu
- Przykłady korelacji nie implikują związku przyczynowego
- Przykłady korelacji w prawdziwym życiu
- Przykłady oczekiwanej wartości w prawdziwym życiu
- Przykłady testowania hipotez w prawdziwym życiu
- Przykłady regresji liniowej w prawdziwym życiu
- Przykłady regresji logistycznej w prawdziwym życiu
- Przykłady średniej, mediany i trybu w prawdziwym życiu
- Przykłady braku korelacji pomiędzy zmiennymi
- Przykłady wartości odstających w prawdziwym życiu
- Przykłady rozkładów dodatnio skośnych
- Przykłady prawdopodobieństwa w prawdziwym życiu
- Przykłady rozkładów ujemnie skośnych
- Przykłady zmiennych losowych w prawdziwym życiu
- Przykłady fałszywych korelacji w życiu codziennym
- Przykłady odchylenia standardowego w prawdziwym życiu
- Przykłady wykorzystania statystyki w życiu
- Przykłady testów T w prawdziwym życiu
- Przykłady rozkładu dwumianowego w prawdziwym życiu
- Przykłady rozkładu wykładniczego w prawdziwym życiu
- Przykłady rozkładu geometrycznego w prawdziwym życiu
- Przykłady rozkładu normalnego w prawdziwym życiu
- Przykłady rozkładu Poissona w prawdziwym życiu
- Przykłady rozkładu równomiernego w życiu codziennym
- Przykłady wyników Z w prawdziwym życiu
- Oczekiwana częstotliwość
- Wartość oczekiwana w stosunku do średniej
- Oczekiwana wartość X^2
- Oczekiwana wartość X^3
- Gap wyjaśnił
- Zmienne zewnętrzne
F
- Wynik F1 a dokładność
- Czynna ANOVA
- Poziom błędów na poziomie rodziny?
- Znajdź obszar na lewo od wyniku Z
- Znajdź obszar na prawo od wyniku Z
- Znajdź średnią kilku odchyleń standardowych
- Znajdź środek i rozkład działki punktów
- Znajdź współczynnik korelacji z R2
- Znajdź równanie regresji liniowej w tabeli
- Znajdź wartości odstające, korzystając z rozstępu międzykwartylowego
- Znalezienie prawdopodobieństwa przy danej średniej i odchyleniu standardowym
- Znajdowanie prawdopodobieństwa na podstawie wyniku Z
- Znajdź kwartyle w zbiorach danych o parzystej i nieparzystej długości
- Znajdź wyniki Z w danym obszarze
- Współczynnik korygujący dla populacji skończonej
- Najmniej znacząca różnica Fishera
- Transformacja Fishera Z
- Efekty naziemne
- Wybór przed
G
H
- Żywopłoty
- Dane wielowymiarowe
- Jak wartości odstające wpływają na średnią?
- Jak interpretować skorygowany współczynnik R-kwadrat
- Jak interpretować przedział ufności zawierający zero
- Jak interpretować V.Cramera
- Jak interpretować wartość F i wartość P w ANOVA
- Jak interpretować wartości F w dwukierunkowej ANOVA
- Jak interpretować rozstęp międzykwartylowy
- Jak interpretować współczynniki regresji logistycznej
- Jak interpretować punkt przecięcia regresji logistycznej
- Jak interpretować wartości MAPE
- Jak interpretować margines błędu
- Jak interpretować ujemne wartości AIC
- Jak interpretować wartości P w regresji liniowej
- Jak interpretować ryzyko względne
- Jak interpretować resztkowy błąd standardowy
- Jak interpretować błąd średniokwadratowy (RMSE)
- Jak interpretować asymetrię
- Jak interpretować odchylenie standardowe równe zero
- Jak czytać wykres pudełkowy z wartościami odstającymi
- Jak czytać macierz korelacji
- Jak czytać macierz kowariancji
- Jak czytać wykres półlogarytmiczny
- Jak zgłaszać wyniki chi-kwadrat
- Jak zgłaszać przedziały ufności
- Jak zgłosić alfa Cronbacha
- Jak zgłaszać dokładne wyniki testu Fishera
- Jak raportować jednokierunkowe wyniki ANOVA
- Jak raportować dwuczynnikowe wyniki ANOVA
- Jak zgłaszać wyniki ANOVA powtarzanych pomiarów
- Jak raportować wyniki regresji logistycznej
- Jak zgłaszać iloraz szans
- Jak zgłaszać wartości P
- Jak zgłosić korelację Pearsona
- Jak raportować wyniki regresji
- Jak zgłaszać skośność i kurtozę
- Jak zgłosić korelację Spearmana
- Jak zgłosić wyniki testu T
- Jak używać wykresów QQ do sprawdzania normalności
- Jak napisać wniosek dotyczący przedziału ufności
- Jak napisać wniosek z testowania hipotezy
- Jak napisać hipotezę zerową
- Testowanie hipotez a przedział ufności
I
- iid Zmienne losowe
- Znaczenie średniej
- Znaczenie mediany
- Znaczenie mody
- Znaczenie zasięgu
- Znaczenie odchylenia standardowego
- Znaczenie statystyki w rachunkowości
- Znaczenie statystyki w przedsiębiorstwach
Znaczenie statystyki w ekonomii - Znaczenie statystyki w edukacji
- Znaczenie statystyki w finansach
- Znaczenie statystyki w opiece zdrowotnej
- Znaczenie statystyki w pielęgniarstwie
- Znaczenie statystyki w psychologii
- Znaczenie statystyki w badaniach
- Częstość występowania
- Wnioskowanie a przewidywanie
- Wpływowa obserwacja
- Zmienne instrumentalne
- Przecięcie w modelu regresji
- Wewnętrzna spójność
- Interpolacja a ekstrapolacja
- Interpretacja Cohena d
- Interpretacja wartości logarytmicznej wiarygodności
- Interpretacja odchyłki zerowej i resztkowej
- Interpretacja wartości P większych niż 0,05
- Interpretacja wartości P mniejszych niż 0,001
- Interpretacja wartości P mniejszych niż 0,01
- Interpretacja wartości P mniejszych niż 0,05
- Interpretacja wartości P równa 0,000
- Interpretacja krzywych ROC
- Interpretacja wyników Z
- Rozstęp międzykwartylowy a odchylenie standardowe
- Rozstęp międzykwartylowy wykresu pudełkowego
- Zmienne interweniujące
- Rzetelność między oceniającymi
- Współczynnik korelacji wewnątrzklasowej
- Odwrotny rozkład normalny
- Czy wiek jest zmienną dyskretną czy ciągłą?
- Czy wiek jest zmienną jakościową czy ilościową?
- Czy wiek jest przedziałem lub stosunkiem zmiennym?
- Czy czas jest przedziałem czy zmiennym stosunkiem?
- Czy na rozstęp międzykwartylowy (IQR) wpływają wartości odstające?
J.
- Indeks podobieństwa Jaccarda
- Podobieństwo Jaro – Winklera
- Częstotliwość wspólna
- Wspólny rozkład prawdopodobieństwa
K
L
- Kodowanie etykiet lub kodowanie typu one-hot
- Status dużych próbek
- Prawo całkowitego prawdopodobieństwa
- Histogram przekrzywiony w lewo
- Rozkłady skośne w lewo lub w prawo
- Test lewego ogona vs. Test prawego ogona
- Poziomy zmiennej niezależnej
- Test Ljunga-Boxa
- Regresja logistyczna a regresja liniowa
- Dystrybucja z długim ogonem
- Długie lub szerokie dane
- Ukryte zmienne
M
- Utwórz histogram z tabeli częstości
- Cp fioletu
- Manipulowane zmienne
- Dystrybucja marginalna
- Średnia marginalna
- Margines błędu w porównaniu z błędem standardowym
- Margines błędu a przedział ufności
- Próbkowanie z maksymalną zmiennością
- Średnia rozkładu prawdopodobieństwa
- Średnia i odchylenie standardowe pogrupowanych danych
- Mediana wykresu pudełkowego
- Mediana zgrupowanych danych
- Właściwości bez pamięci
- Minimalna wielkość próbki dla testu t
- Wskaźnik błędnej klasyfikacji
- MLE dla równomiernego rozkładu
- MLE dla rozkładu Poissona
- Tryb danych zbiorczych
- Moderowanie zmienne
- Zmodyfikowany wynik Z
- Monotonne relacje
- Problem Monty’ego Halla
- Ja przez Morana
- MSE vs. RMSE
- Dystrybucja multimodalna
- Współczynnik wielomianowy
- Test wielomianowy
- Wiele R kontra R-kwadrat
- Próbkowanie wieloetapowe
- Wydarzenia wzajemnie włączające się lub wykluczające
NIE
- Ujemny dwumian vs regresja Poissona
- Zagnieżdżona ANOVA
- Model zagnieżdżony
- Stronniczość Neymana
- Przykłady zależności nieliniowych
- Stronniczość braku odpowiedzi
- Normalne przybliżenie
- Rozkład normalny a rozkład t
- Rozkład normalny a standardowy rozkład normalny
- Rozkład normalny a rozkład równomierny
- Normalizuj dane w zakresie od -1 do 1
- Normalizuj dane w zakresie od 0 do 1
- Normalizuj dane w zakresie od 0 do 100
- Hipoteza zerowa dla modeli ANOVA
- Hipoteza zerowa dla regresji liniowej
- Hipoteza zerowa dla regresji logistycznej
- Liczba potrzebna do wyrządzenia szkody
Oh
- Obserwacja
- Obserwuj stronniczość
- Iloraz szans a ryzyko względne
- Pominięte zmienne odchylenie
- Próba omnibusa
- Przykład problemów z testem T
- Jednostronne przedziały ufności
- Przykłady jednostronnych problemów testowych
- Jednokierunkowa lub dwukierunkowa ANOVA
- Jednokierunkowe lub powtarzane pomiary ANOVA
- Otwarta dystrybucja
- Efekty zamówienia
- Wynik kontra wydarzenie
P.
- Wartość P w porównaniu z alfa
- Sparowane dane
- Test t dla par i niesparowanych
- Ręcznie sparowany test t
- Niezawodność form równoległych
- Interesujący parametr
- Oszczędny model
- Częściowe eta do kwadratu
- Częściowy test F
- Częściowy współczynnik regresji
- Współczynnik korelacji Pearsona
- reszty Pearsona
- Percentyl, kwartyl i kwantyl
- Ranga percentylowa dla pogrupowanych danych
- Doskonała wielowspółliniowość
- Współczynnik Fi
- Ślad Pillai
- Punktowe oszacowanie
- Przedział ufności Poissona
- Założenia rozkładu Poissona
- Poissona vs rozkład normalny
- Skupione odchylenie standardowe
- Skupione odchylenie
- Proporcja populacji
- Odchylenie standardowe populacji z próby
- Dodatnia wartość predykcyjna a czułość
- Błąd przewidywania
- Prognozy z wykorzystaniem regresji liniowej
- Ważność przewidywana
- Statystyki prasowe
- Rozpowszechnienie
- Prawdopodobieństwo przed i po teście
- Prawdopodobieństwo A i B
- Prawdopodobieństwo A danego B
- Prawdopodobieństwo A lub B
- Prawdopodobieństwo, że w rzucie monetą wypadnie co najmniej jedna reszka
- Prawdopodobieństwo „co najmniej jednego” sukcesu
- Prawdopodobieństwo „co najmniej dwóch” sukcesów
- Prawdopodobieństwo „co najmniej trzech” sukcesów
- Prawdopodobieństwo ani A, ani B
- Prawdopodobieństwo wyrzucenia podwójnej liczby kostek
- Funkcja masy
- Prawdopodobieństwo vs. Proporcja
- Pseudoreplikacja
Q
MA.
- R kontra kwadrat R
- Indeks Randa
- Randomizacja
- Zakres działki pudełkowej
- Praktyczna zasada zakresu
- Rozstęp a rozstęp międzykwartylowy
- Zakres a odchylenie standardowe
- Losowy wybór lub losowe przypisanie
- Zgrupowany zakres danych
- Surowe dane
- Obsada Rayleigha
- Stronniczość odniesienia
- Regresja przez pochodzenie
- Regresor
- Zależność średniej od odchylenia standardowego
- Względny rozkład częstotliwości
- Analiza niezawodności
- Pozostałości
- Pozostałości w ANOVA
- Działki resztkowe: działki dobre i złe
- Wykres pozostałości i dźwigni
- Pozostała ścieżka: jak tworzyć ręcznie
- Pozostała luka
- Statystyka oporu
- Ograniczenie zasięgu
- Odwrotna przyczynowość
- Odwrotne kodowanie
- Histogram przekrzywiony w prawo
- RMSE a R-kwadrat
- RMSE vs. MAE
S
- Średnia próbki w porównaniu ze średnią populacji
- Średnia próbki w funkcji proporcji próbki
- Wielkość próbki i margines błędu
- Przykładowa przestrzeń
- Wariancja próbki a wariancja populacji
- Zmienność próbkowania
- Pobieranie próbek z wymianą lub bez wymiany
- Zbliżenie Satterthwaite’a
- Efekty sekwencji
- Indeks różnorodności Shannona
- Kształt histogramów
- Indeks różnorodności Simpsona
- Asymetria na wykresach pudełkowych
- Wzór Slovina
- Próbkowanie kuli śnieżnej
- Somera D
- Formuła Spearmana-Browna
- Niezawodność podzielona na dwie części
- Standaryzacja a normalizacja
- Odchylenie standardowe rozkładu prawdopodobieństwa
- Odchylenie standardowe od błędu standardowego
- Standardowy błąd oszacowania
- Standardowy błąd pomiaru
- Błąd standardowy nachylenia regresji
- Standardowy błąd proporcji
- Standaryzowane pozostałości
- Standaryzowane statystyki testowe
- Standaryzowane i niestandaryzowane współczynniki regresji
- Wynik Stanine’a
- Statystyk kontra analityk danych
- Statystyka a analityka
- Statystyki vs. Biostatystyka
- Statystyka a ekonometria
- Statystyki a prawdopodobieństwa
- Wykresy łodyg i liści: jak znaleźć średnią, medianę i tryb
- Reguła Sturgesa
- Warunek pozytywny/negatywny
- Suma kwadratów w ANOVA
- Suma kwadratów regresji: SST, SSR, SSE
- Sxx w statystykach
- Sxy w statystykach
- Rozkład symetryczny
- Histogram symetryczny
T
- t Wartości alfa/2
- Wynik T vs. Wynik Z
- korelacja testu t
- test t w regresji liniowej
- test t dla nierównej wielkości próbek
- Wartość T w porównaniu z wartością P
- Niezawodność testu-retestu
- Trzeci zmienny problem
- Upowszechnianie leczenia
- Rozkład trójkątny
- Przycięty środek
- Obcięte i ocenzurowane dane
- Tukey vs. Bonferroni vs. Scheffa
- Dwustopniowe próbkowanie klastrów
- Przykłady dwustronnych problemów testowych
- Rodzaje regresji logistycznej
- Rodzaje regresji
ty
- Niedoszacowanie
- Zrozumienie kształtu rozkładu dwumianowego
- Niezgrupowany rozkład częstotliwości
- Dystrybucja jednomodalna
- W analizie jednoczynnikowej
- Analiza jednoczynnikowa lub wieloczynnikowa
- Ogrodzenia górne i dolne
V
- Zestaw walidacyjny i zestaw testowy
- Wariancja rozkładu prawdopodobieństwa
- Zmienność pogrupowanych danych
- Próbka dobrowolnej odpowiedzi
W
- Co oznacza wysoka wartość F w ANOVA?
- Co jest uważane za dobrą dokładność modeli uczenia maszynowego?
- Co uważa się za dobrą wartość AIC?
- Co uważa się za dobry wynik AUC?
- Jaki jest dobry przedział ufności?
- Co jest uważane za dobrą wartość dla MAPE?
- Co uważa się za dobry współczynnik zmienności?
- Co jest uważane za dobry wynik w F1?
- Jaka wartość jest uważana za dobrą RMSE?
- Co uważa się za dobre odchylenie standardowe?
- Co uważa się za niskie odchylenie standardowe?
- Co uważa się za silną korelację?
- Co uważa się za słabą korelację?
- Jaka jest dobra wartość R-kwadrat?
- Jaka jest różnica między testem T a ANOVA?
- Kiedy odrzucić hipotezę zerową
- Kiedy usunąć wartości odstające z danych
- Kiedy stosować test chi-kwadrat
- Kiedy stosować wykresy pudełkowe
- Kiedy stosować korelację
- Kiedy stosować skalę logarytmiczną
- Kiedy stosować średnią a kiedy medianę
- Kiedy stosować regresję wielomianową
- Kiedy stosować regresję grzbietu i lasso
- Kiedy stosować korelację rangi włócznika
- Kiedy używać s/sqrt(n) w statystykach
- Winsoryzacja danych
- Zmienność wewnątrzgrupowa lub międzygrupowa w ANOVA