Glossaire
Cette page fournit un glossaire de tous les termes et concepts statistiques disponibles sur Statology.
#
UN
- Rapport de cotes ajusté
- Avantages et inconvénients de l’utilisation de Mean
- Avantages et inconvénients de l’utilisation de la médiane
- Avantages et inconvénients de l’utilisation de l’écart type
- Biais d’agrégation
- Hypothèse alternative
- ANOVA vs régression
- ANOVA avec ou sans réplication
- ANOVA avec des tailles d’échantillon inégales
- Variables antérieures
- Biais de vérification
- Hypothèse de variance égale
- Assomption de l’indépendance
- Hypothèse de normalité
- Hypothèses de l’ANOVA
- Hypothèses de MANOVA
- Hypothèses de régression linéaire
- Hypothèses de régression logistique
- Hypothèses de régression linéaire multiple
- Hypothèses du test t apparié
- Hypothèses de la corrélation de Pearson
- Hypothèses d’ANOVA à mesures répétées
- Hypothèses du test t
- Risque attribuable
B
- Parcelles à tiges et feuilles dos à dos
- Sélection en arrière
- Précision équilibrée
- Conceptions équilibrées ou déséquilibrées
- Test de Bartlett pour l’homogénéité des variances
- Procédure Benjamini-Hochberg
- Le biais de Berkson
- Bernoulli vs distribution binomiale
- Niveau bêta
- Distributions bimodales
- Hypothèses de distribution binomiale
- Expériences binomiales
- Distribution binomiale ou géométrique
- Distribution binomiale et distribution de Poisson
- Analyse bivariée
- Terrain Bland-Altman
- Blocage
- Correction de Bonferroni
- Pourcentages de boîtes à moustaches
- Différence de Bray-Curtis
- Score du Brier
C
- Statistique C d’un modèle de régression logistique
- Calculer manuellement la valeur P à partir d’un score Z
- Calculer manuellement le coefficient de corrélation de Pearson
- Calculer R-carré à la main
- Calculer la moyenne à partir du tableau de fréquence
- Calculer la médiane à partir du tableau de fréquence
- Calculer le mode à partir du tableau de fréquence
- Calculer le percentile à partir de la moyenne et de l’écart type
- Un Z-Score peut-il être négatif ?
- L’aplatissement peut-il être négatif ?
- La variance peut-elle être négative ?
- Effets de report
- Cas en statistiques
- Distribution catégorielle
- Variables catégorielles et quantitatives
- Effets de plafond
- Biais de tendance centrale
- Test du chi carré à la main
- Test du Chi carré vs ANOVA
- Choisir quelle variable placer sur l’axe X et l’axe Y
- Test de nourriture
- Limites de classe
- Intervalles de cours
- Limites de classe
- Points médians de classe
- Taille de la classe
- Échantillonnage en grappes ou échantillonnage stratifié
- Test Q de Cochran
- Coefficient de variation par rapport à l’écart type
- Événements collectivement exhaustifs
- Comparaison des boîtes à moustaches
- Comparaison d’histogrammes
- Comparaison des courbes ROC
- Comparaison des scores Z de différentes distributions
- Variable conceptuelle
- Variables concomitantes
- Validité concurrente
- Distribution conditionnelle
- Fréquence relative conditionnelle dans un tableau à deux entrées
- Conditions du théorème central limite
- Exemples de problèmes d’intervalle de confiance
- Intervalle de confiance pour le rapport de cotes
- Intervalle de confiance pour le risque relatif
- Intervalle de confiance pour l’interception de régression
- Intervalle de confiance pour la pente de régression
- Intervalle de confiance utilisant la distribution F
- Niveau de confiance par rapport à l’intervalle de confiance
- Confidentialité vs anonymat
- Variable confusionnelle
- Hypothèse de variance constante
- Validité du contenu
- Correction de continuité
- Convertir les scores Z en scores bruts
- Corrélation entre les variables catégorielles
- Corrélation entre les variables continues et catégorielles
- Corrélation vs association
- Corrélation vs régression
- Covariables
- La validité des critères
- Variable de critère
- Conception de panneaux à décalage croisé
- Courbe résiduelle
- Régression curviligne
D
- Arbres de décision vs forêts aléatoires
- Degrés de liberté pour tout test T
- Déterminer la variance égale ou inégale dans les tests t
- Déterminer si la distribution de probabilité est valide
- Déterminer les variables significatives dans les modèles de régression
- Données détendantes
- Variables dichotomiques
- Différences entre ANOVA, ANCOVA, MANOVA et MANCOVA
- Événements disjoints
- Événements disjoints ou indépendants
- Test Q de Dixon pour les valeurs aberrantes
- La causalité implique-t-elle une corrélation ?
- Diagramme de points et histogramme
- Diagrammes de points : comment trouver la moyenne, la médiane et le mode
- Variables factices dans l’analyse de régression
- Piège variable factice
- Test de Durbin-Watson
E
- Problèmes de pratique des règles empiriques
- Variables endogènes et exogènes
- Erlang Distribution
- Propagation des erreurs
- Estimation de la moyenne et de la médiane des histogrammes
- Estimation du mode des histogrammes
- Estimation de l’écart type des histogrammes
- Eta au carré
- Exemples d’ANOVA dans la vie réelle
- Exemples de données bivariées dans la vie réelle
- Exemples de théorème central limite dans la vie réelle
- Exemples de tests du chi carré dans la vie réelle
- Exemples d’analyse de cluster dans la vie réelle
- Exemples de probabilité conditionnelle dans la vie réelle
- Exemples d’intervalles de confiance dans la vie réelle
- Les exemples de corrélation n’impliquent pas de causalité
- Exemples de corrélation dans la vie réelle
- Exemples de valeur attendue dans la vie réelle
- Exemples de tests d’hypothèses dans la vie réelle
- Exemples de régression linéaire dans la vie réelle
- Exemples de régression logistique dans la vie réelle
- Exemples de moyenne, médiane et mode dans la vie réelle
- Exemples d’absence de corrélation entre les variables
- Exemples de valeurs aberrantes dans la vie réelle
- Exemples de distributions positivement asymétriques
- Exemples de probabilités dans la vie réelle
- Exemples de distributions négativement asymétriques
- Exemples de variables aléatoires dans la vie réelle
- Exemples de fausses corrélations dans la vie réelle
- Exemples d’écart type dans la vie réelle
- Exemples d’utilisation des statistiques dans la vie réelle
- Exemples de tests T dans la vraie vie
- Exemples de distribution binomiale dans la vie réelle
- Exemples de distribution exponentielle dans la vie réelle
- Exemples de distribution géométrique dans la vie réelle
- Exemples de distribution normale dans la vie réelle
- Exemples de distribution de Poisson dans la vie réelle
- Exemples de distribution uniforme dans la vie réelle
- Exemples de scores Z dans la vie réelle
- Fréquence attendue
- Valeur attendue par rapport à la moyenne
- Valeur attendue de X^2
- Valeur attendue de X^3
- Écart expliqué
- Variables étrangères
F
- Score F1 par rapport à la précision
- ANOVA Factorielle
- Taux d’erreur au niveau familial ?
- Rechercher la zone à gauche du score Z
- Rechercher la zone à droite du score Z
- Trouver la moyenne de plusieurs écarts types
- Rechercher le centre et la propagation d’un tracé de points
- Trouver le coefficient de corrélation à partir de R2
- Trouver l’équation de régression linéaire à partir d’un tableau
- Rechercher les valeurs aberrantes à l’aide de l’intervalle interquartile
- Trouver une probabilité étant donné une moyenne et un écart type
- Trouver la probabilité à partir d’un score Z
- Rechercher des quartiles dans des ensembles de données de longueur paire et impaire
- Trouver les scores Z dans une zone donnée
- Facteur de correction pour population finie
- Différence la moins significative de Fisher
- Transformation Z de Fisher
- Effets de sol
- Sélection avant
g
H
- Les haies
- Données de grande dimension
- Comment les valeurs aberrantes affectent-elles la moyenne ?
- Comment interpréter le R-carré ajusté
- Comment interpréter un intervalle de confiance contenant zéro
- Comment interpréter le V de Cramer
- Comment interpréter la valeur F et la valeur P dans l’ANOVA
- Comment interpréter les valeurs F dans une ANOVA bidirectionnelle
- Comment interpréter l’intervalle interquartile
- Comment interpréter les coefficients de régression logistique
- Comment interpréter l’interception de régression logistique
- Comment interpréter les valeurs MAPE
- Comment interpréter la marge d’erreur
- Comment interpréter les valeurs AIC négatives
- Comment interpréter les valeurs P dans la régression linéaire
- Comment interpréter le risque relatif
- Comment interpréter l’erreur standard résiduelle
- Comment interpréter l’erreur quadratique moyenne (RMSE)
- Comment interpréter l’asymétrie
- Comment interpréter l’écart type de zéro
- Comment lire une boîte à moustaches avec des valeurs aberrantes
- Comment lire une matrice de corrélation
- Comment lire une matrice de covariance
- Comment lire un graphique semi-logarithmique
- Comment rapporter les résultats du chi carré
- Comment signaler les intervalles de confiance
- Comment signaler l’Alpha de Cronbach
- Comment rapporter les résultats exacts des tests de Fisher
- Comment rapporter les résultats de l’ANOVA unidirectionnelle
- Comment rapporter les résultats de l’ANOVA bidirectionnelle
- Comment rapporter les résultats de l’ANOVA à mesures répétées
- Comment signaler les résultats de la régression logistique
- Comment déclarer les rapports de cotes
- Comment signaler les valeurs P
- Comment signaler la corrélation de Pearson
- Comment signaler les résultats de la régression
- Comment signaler l’asymétrie et l’aplatissement
- Comment signaler la corrélation de Spearman
- Comment signaler les résultats du test T
- Comment utiliser les tracés QQ pour vérifier la normalité
- Comment rédiger une conclusion sur l’intervalle de confiance
- Comment rédiger une conclusion de test d’hypothèse
- Comment rédiger une hypothèse nulle
- Test d’hypothèse par rapport à l’intervalle de confiance
je
- iid Variables aléatoires
- Importance de la moyenne
- Importance de la médiane
- Importance du mode
- Importance de la gamme
- Importance de l’écart type
- Importance des statistiques en comptabilité
- Importance des statistiques dans les entreprises
Importance des statistiques en économie - Importance des statistiques dans l’éducation
- Importance des statistiques en finance
- Importance des statistiques dans les soins de santé
- Importance des statistiques en soins infirmiers
- Importance des statistiques en psychologie
- Importance des statistiques dans la recherche
- Taux d’incidence
- Inférence vs prédiction
- Observation influente
- Variables instrumentales
- Interception dans le modèle de régression
- La cohérence interne
- Interpolation vs extrapolation
- Interpréter le d de Cohen
- Interprétation des valeurs de log-vraisemblance
- Interpréter la déviance nulle et résiduelle
- Interprétation des valeurs P supérieures à 0,05
- Interprétation des valeurs P inférieures à 0,001
- Interprétation des valeurs P inférieures à 0,01
- Interprétation des valeurs P inférieures à 0,05
- Interprétation des valeurs P égales à 0,000
- Interprétation des courbes ROC
- Interprétation des scores Z
- Écart interquartile par rapport à l’écart type
- Écart interquartile d’une boîte à moustaches
- Variables intervenantes
- Fiabilité inter-évaluateurs
- Coefficient de corrélation intraclasse
- Distribution normale inverse
- L’âge est-il une variable discrète ou continue ?
- L’âge est-il une variable qualitative ou quantitative ?
- L’âge est-il une variable d’intervalle ou de ratio ?
- Le temps est-il un intervalle ou un rapport variable ?
- L’intervalle interquartile (IQR) est-il affecté par les valeurs aberrantes ?
J.
- Indice de similarité Jaccard
- Similitude Jaro-Winkler
- Fréquence commune
- Distribution de probabilité conjointe
K
L
- Encodage d’étiquettes ou un encodage à chaud
- État des grands échantillons
- Loi de probabilité totale
- Histogramme asymétrique à gauche
- Distributions asymétriques à gauche ou à droite
- Test de la queue gauche par rapport au test de la queue droite
- Niveaux d’une variable indépendante
- Test de Ljung-Box
- Régression logistique vs régression linéaire
- Distribution à longue traîne
- Données longues ou larges
- Variables cachées
M
- Créer un histogramme à partir du tableau de fréquence
- Cp des mauves
- Variables manipulées
- Répartition marginale
- Moyenne marginale
- Marge d’erreur par rapport à l’erreur standard
- Marge d’erreur par rapport à l’intervalle de confiance
- Échantillonnage de variation maximale
- Moyenne d’une distribution de probabilité
- Moyenne et écart type des données groupées
- Médiane d’une boîte à moustaches
- Médiane des données groupées
- Propriété sans mémoire
- Taille minimale de l’échantillon pour un test t
- Taux de classification erronée
- MLE pour une distribution uniforme
- MLE pour une distribution de Poisson
- Mode de données groupées
- Variable modératrice
- Score Z modifié
- Relation monotone
- Problème de Monty Hall
- Moi de Moran
- MSE contre RMSE
- Distribution multimodale
- Coefficient multinomial
- Test multinomial
- R multiple contre R-carré
- Échantillonnage à plusieurs degrés
- Événements mutuellement inclusifs ou mutuellement exclusifs
N
- Régression binomiale négative vs Poisson
- ANOVA imbriquée
- Modèle imbriqué
- Biais de Neyman
- Exemples de relations non linéaires
- Biais de non-réponse
- Approximation normale
- Distribution normale vs distribution t
- Distribution normale vs distribution normale standard
- Distribution normale vs distribution uniforme
- Normaliser les données entre -1 et 1
- Normaliser les données entre 0 et 1
- Normaliser les données entre 0 et 100
- Hypothèse nulle pour les modèles ANOVA
- Hypothèse nulle pour la régression linéaire
- Hypothèse nulle pour la régression logistique
- Nombre nécessaire pour nuire
Ô
- Observation
- Biais de l’observateur
- Rapport de cotes par rapport au risque relatif
- Biais variable omis
- Test omnibus
- Un exemple de problèmes de test T
- Intervalles de confiance unilatéraux
- Exemples de problèmes de test unilatéral
- ANOVA unidirectionnelle ou bidirectionnelle
- ANOVA à sens unique ou à mesures répétées
- Distribution ouverte
- Effets de commande
- Résultat vs événement
P.
- Valeur P par rapport à Alpha
- Données jumelées
- Test t apparié ou non apparié
- Test t apparié à la main
- Fiabilité des formulaires parallèles
- Paramètre d’intérêt
- Modèle parcimonieux
- Eta partiel au carré
- Test F partiel
- Coefficient de régression partielle
- Coefficient de corrélation de Pearson
- Résidus Pearson
- Centile, quartile et quantile
- Rang centile pour les données groupées
- Multicolinéarité parfaite
- Coefficient Phi
- Trace de Pillai
- Estimation ponctuelle
- Intervalle de confiance de Poisson
- Hypothèses de distribution de Poisson
- Poisson vs distribution normale
- Écart type groupé
- Écart groupé
- Proportion de la population
- Écart type de la population par rapport à l’échantillon
- Valeur prédictive positive par rapport à la sensibilité
- Erreur de prédiction
- Prédictions avec régression linéaire
- Validité prédictive
- Statistique de PRESSE
- Prévalence
- Probabilité pré-test et post-test
- Probabilité de A et B
- Probabilité de A étant donné B
- Probabilité de A ou B
- Probabilité d’avoir au moins une tête dans les lancers de pièces
- Probabilité de « au moins un » succès
- Probabilité d’« au moins deux » succès
- Probabilité d’« au moins trois » succès
- Probabilité de ni A ni B
- Probabilité de lancer des doubles avec des dés
- Fonction de masse
- Probabilité vs Proportion
- Pseudoréplication
Q
R.
- R contre R-Carré
- Indice Rand
- Randomisation
- Portée de la boîte à moustaches
- Règle empirique de portée
- Plage par rapport à la plage interquartile
- Plage par rapport à l’écart type
- Sélection aléatoire ou attribution aléatoire
- Plage de données groupées
- Données brutes
- Distribution de Rayleigh
- Biais de référence
- Régression à travers l’origine
- Régresseur
- Relation entre la moyenne et l’écart type
- Distribution de fréquence relative
- Analyse de fiabilité
- Résidus
- Résidus dans l’ANOVA
- Parcelles résiduelles : bonnes et mauvaises parcelles
- Graphique des résidus et de l’effet de levier
- Tracé résiduel : comment créer à la main
- Écart résiduel
- Statistique de résistance
- Restriction de portée
- Causalité inversée
- Codage inversé
- Histogramme asymétrique à droite
- RMSE vs R-carré
- RMSE contre MAE
S
- Moyenne de l’échantillon par rapport à la moyenne de la population
- Moyenne de l’échantillon par rapport à la proportion de l’échantillon
- Taille de l’échantillon et marge d’erreur
- Espace d’échantillon
- Variance de l’échantillon par rapport à la variance de la population
- Variabilité d’échantillonnage
- Échantillonnage avec remplacement ou sans remplacement
- Rapprochement de Satterthwaite
- Effets de séquence
- Indice de diversité de Shannon
- Forme des histogrammes
- Indice de diversité de Simpson
- Asymétrie dans les boîtes à moustaches
- La formule de Slovin
- Échantillonnage de boule de neige
- Somer’s D
- Formule Spearman-Brown
- Fiabilité divisée en deux
- Standardisation vs normalisation
- Écart type d’une distribution de probabilité
- Écart type par rapport à l’erreur standard
- Erreur type d’estimation
- Erreur type de mesure
- Erreur type de la pente de régression
- Erreur type de la proportion
- Résidus standardisés
- Statistique de test standardisé
- Coefficients de régression standardisés et non standardisés
- Score Stanine
- Statisticien vs Data Scientist
- Statistiques vs analyses
- Statistiques vs biostatistiques
- Statistiques vs économétrie
- Statistiques vs probabilités
- Graphiques à tiges et feuilles : comment trouver la moyenne, la médiane et le mode
- La règle de Sturges
- Condition de réussite/échec
- Somme des carrés en ANOVA
- Somme des carrés en régression : SST, SSR, SSE
- Sxx dans les statistiques
- Sxy dans les statistiques
- Distribution symétrique
- Histogramme symétrique
T
- t Valeurs Alpha/2
- Score T vs score Z
- Test t de corrélation
- Test t en régression linéaire
- Test t avec des tailles d’échantillon inégales
- Valeur T par rapport à la valeur P
- Fiabilité test-retest
- Problème de troisième variable
- Diffusion du traitement
- Distribution triangulaire
- Moyenne tronquée
- Données tronquées et censurées
- Tukey contre Bonferroni contre Scheffe
- Échantillonnage en grappes en deux étapes
- Exemples de problèmes de test bilatéral
- Types de régression logistique
- Types de régression
U
- Biais de sous-dénombrement
- Comprendre la forme d’une distribution binomiale
- Distribution de fréquence non groupée
- Distribution unimodale
- Analyse univariée
- Analyse univariée ou multivariée
- Clôtures supérieures et inférieures
V
- Ensemble de validation et ensemble de test
- Variance d’une distribution de probabilité
- Variation des données groupées
- Échantillon de réponse volontaire
W
- Que signifie une valeur F élevée dans l’ANOVA ?
- Qu’est-ce qui est considéré comme une bonne précision pour les modèles d’apprentissage automatique ?
- Qu’est-ce qui est considéré comme une bonne valeur AIC ?
- Qu’est-ce qui est considéré comme un bon score d’ASC ?
- Qu’est-ce qu’un bon intervalle de confiance ?
- Qu’est-ce qui est considéré comme une bonne valeur pour MAPE ?
- Qu’est-ce qui est considéré comme un bon coefficient de variation ?
- Qu’est-ce qui est considéré comme un bon score F1 ?
- Qu’est-ce qui est considéré comme une bonne valeur RMSE ?
- Qu’est-ce qui est considéré comme un bon écart type ?
- Qu’est-ce qui est considéré comme un faible écart type ?
- Qu’est-ce qui est considéré comme une forte corrélation ?
- Qu’est-ce qui est considéré comme une corrélation faible ?
- Qu’est-ce qu’une bonne valeur R au carré ?
- Quelle est la différence entre un test T et une ANOVA ?
- Quand rejeter l’hypothèse nulle
- Quand supprimer les valeurs aberrantes dans les données
- Quand utiliser un test du chi carré
- Quand utiliser les boîtes à moustaches
- Quand utiliser la corrélation
- Quand utiliser l’échelle logarithmique
- Quand utiliser la moyenne par rapport à la médiane
- Quand utiliser la régression polynomiale
- Quand utiliser la régression Ridge & Lasso
- Quand utiliser la corrélation de rang de Spearman
- Quand utiliser s / sqrt(n) dans les statistiques
- Données Winsorize
- Variation intra-groupe ou entre groupes dans l’ANOVA