L’une des mesures les plus couramment utilisées pour mesurer la précision des prévisions d’un modèle est MAPE , qui signifie erreur de pourcentage absolue moyenne . La formule pour calculer le MAPE est la suivante : MAPE = (1/n) * Σ(|réel –...
Un graphique à secteurs est un graphique circulaire qui utilise des « secteurs » pour afficher les tailles relatives des données. Ce tutoriel explique comment créer et modifier des diagrammes circulaires dans Stata. Comment créer des diagrammes circulaires dans Stata Nous...
Un tracé QQ , abréviation de « quantile-quantile », est souvent utilisé pour évaluer si les résidus d’une analyse de régression sont normalement distribués ou non. Ce tutoriel explique comment créer et interpréter un tracé QQ dans Stata. Exemple : tracé QQ...
La régression logistique est une méthode statistique que nous utilisons pour ajuster un modèle de régression lorsque la variable de réponse est binaire. Pour évaluer dans quelle mesure un modèle de régression logistique s’adapte à un ensemble de données, nous pouvons...
Une ANOVA unidirectionnelle est utilisée pour déterminer si différents niveaux d’une variable explicative conduisent ou non à des résultats statistiquement différents dans certaines variables de réponse. Par exemple, nous pourrions être intéressés à comprendre si trois niveaux d’études (diplôme d’associé, baccalauréat,...
La régression linéaire est une méthode que nous pouvons utiliser pour comprendre la relation entre une ou plusieurs variables explicatives et une variable de réponse. Généralement, lorsque nous effectuons une régression linéaire, nous souhaitons estimer la valeur moyenne de la variable...
De nombreux tests statistiques nécessitent qu’une ou plusieurs variables soient distribuées normalement pour que les résultats du test soient fiables. Ce didacticiel explique plusieurs méthodes que vous pouvez utiliser pour tester la normalité entre les variables dans Stata. Pour chacune de...
La multicolinéarité dans l’analyse de régression se produit lorsque deux ou plusieurs variables explicatives sont fortement corrélées les unes aux autres, de sorte qu’elles ne fournissent pas d’informations uniques ou indépendantes dans le modèle de régression. Si le degré de corrélation...
Un test U de Mann-Whitney (parfois appelé test de somme de rangs de Wilcoxon) est utilisé pour comparer les différences entre deux échantillons lorsque les distributions d’échantillons ne sont pas normalement distribuées et que les tailles d’échantillon sont petites (n <30)....
La multicolinéarité dans l’analyse de régression se produit lorsque deux ou plusieurs variables explicatives sont fortement corrélées les unes aux autres, de sorte qu’elles ne fournissent pas d’informations uniques ou indépendantes dans le modèle de régression. Si le degré de corrélation...