{"id":462,"date":"2023-07-29T20:10:11","date_gmt":"2023-07-29T20:10:11","guid":{"rendered":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/"},"modified":"2023-07-29T20:10:11","modified_gmt":"2023-07-29T20:10:11","slug":"multicollineariteitsregressie","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/","title":{"rendered":"Een gids voor multicollineariteit en vif in regressie"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\"><strong>Multicollineariteit<\/strong> bij regressieanalyse treedt op wanneer twee of meer voorspellende variabelen sterk met elkaar gecorreleerd zijn, zodat ze geen unieke of onafhankelijke informatie verschaffen in het regressiemodel.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als de mate van correlatie tussen variabelen hoog genoeg is, kan dit problemen veroorzaken bij het aanpassen en interpreteren van het regressiemodel.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Stel dat u bijvoorbeeld een regressieanalyse uitvoert met behulp van de <em>maximale verticale<\/em> <a href=\"https:\/\/statorials.org\/nl\/variabelen-verklarende-reacties\/\" target=\"_blank\" rel=\"noopener noreferrer\">sprongresponsvariabele<\/a> en de volgende voorspellende variabelen:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">hoogte<\/span><\/li>\n<li> <span style=\"color: #000000;\">schoenmaat<\/span><\/li>\n<li> <span style=\"color: #000000;\">uren per dag aan oefenen besteed<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In dit geval zijn <em>lengte<\/em> en <em>schoenmaat<\/em> waarschijnlijk sterk gecorreleerd, omdat langere mensen doorgaans grotere schoenmaten hebben. Dit betekent dat multicollineariteit waarschijnlijk een probleem zal zijn bij deze regressie.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In deze tutorial wordt uitgelegd waarom multicollineariteit een probleem is, hoe u dit kunt detecteren en hoe u dit kunt oplossen.<\/span><\/p>\n<h2> <span style=\"color: #000000;\"><strong>Waarom multicollineariteit een probleem is<\/strong><\/span><\/h2>\n<p> <span style=\"color: #000000;\">Een van de belangrijkste doelen van regressieanalyse is het isoleren van de relatie tussen elke voorspellende variabele en de responsvariabele.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer we regressieanalyses uitvoeren, interpreteren we met name elke regressieco\u00ebffici\u00ebnt als de gemiddelde verandering in de responsvariabele, <em>ervan uitgaande dat alle andere voorspellende variabelen in het model constant blijven.<\/em><\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit betekent dat we ervan uitgaan dat we de waarden van een bepaalde voorspellende variabele kunnen veranderen zonder de waarden van andere voorspellende variabelen te veranderen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer twee of meer voorspellende variabelen echter sterk gecorreleerd zijn, wordt het moeilijk om de ene variabele te veranderen zonder de andere te veranderen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit maakt het moeilijk voor het regressiemodel om onafhankelijk de relatie tussen elke voorspellende variabele en de responsvariabele te schatten, omdat de voorspellende variabelen de neiging hebben om tegelijkertijd te veranderen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Over het algemeen levert multicollineariteit twee soorten problemen op:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">De co\u00ebffici\u00ebntschattingen van het model (en zelfs de tekenen van de co\u00ebffici\u00ebnten) kunnen aanzienlijk fluctueren, afhankelijk van de andere voorspellende variabelen die in het model zijn opgenomen.<\/span><\/li>\n<li> <span style=\"color: #000000;\">De nauwkeurigheid van co\u00ebffici\u00ebntschattingen wordt verminderd, waardoor p-waarden onbetrouwbaar worden. Dit maakt het moeilijk om te bepalen welke voorspellende variabelen daadwerkelijk statistisch significant zijn.<\/span><\/li>\n<\/ul>\n<h2> <strong><span style=\"color: #000000;\">Hoe multicollineariteit te detecteren<\/span><\/strong><\/h2>\n<p> <span style=\"color: #000000;\">De meest gebruikelijke manier om multicollineariteit te detecteren is door de <strong>variantie-inflatiefactor (VIF)<\/strong> te gebruiken, die de correlatie en sterkte van de correlatie tussen voorspellende variabelen in een regressiemodel meet.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Gebruik van de variantie-inflatiefactor (VIF)<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">De meeste statistische software heeft de mogelijkheid om de VIF voor een regressiemodel te berekenen. De VIF-waarde begint bij 1 en heeft geen bovengrens. Een algemene regel voor het interpreteren van VIF&#8217;s is:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Een waarde van 1 geeft aan dat er geen correlatie bestaat tussen een bepaalde voorspellende variabele en enige andere voorspellende variabele in het model.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Een waarde tussen 1 en 5 duidt op een gematigde correlatie tussen een bepaalde voorspellende variabele en andere voorspellende variabelen in het model, maar deze is vaak niet ernstig genoeg om speciale aandacht te vereisen.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Een waarde groter dan 5 duidt op een potentieel ernstige correlatie tussen een bepaalde voorspellende variabele en andere voorspellende variabelen in het model. In dit geval zijn de co\u00ebffici\u00ebntschattingen en p-waarden in de regressieresultaten waarschijnlijk onbetrouwbaar.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Stel dat we bijvoorbeeld een regressieanalyse uitvoeren met behulp van de voorspellende variabelen <em>lengte<\/em> , <em>schoenmaat<\/em> en <em>uren training per dag<\/em> om <em>de maximale verticale sprong<\/em> van basketbalspelers te voorspellen en het volgende resultaat te krijgen:<\/span><\/p>\n<p> <span style=\"color: #000000;\">In de laatste kolom kunnen we zien dat de VIF-waarden voor <em>lengte<\/em> en <em>schoenmaat<\/em> beide groter zijn dan 5. Dit geeft aan dat ze waarschijnlijk last hebben van multicollineariteit en dat hun co\u00ebffici\u00ebntschattingen en p-waarden waarschijnlijk onbetrouwbaar zijn.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als we kijken naar de co\u00ebffici\u00ebntschatting voor schoenmaat, vertelt het model ons dat voor elke extra eenheid toename van de schoenmaat de gemiddelde toename van <em>de maximale verticale sprong<\/em> -0,67498 inch bedraagt, ervan uitgaande dat de hoogte en het aantal oefenuren constant blijven.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit lijkt niet logisch, aangezien we verwachten dat spelers met grotere schoenen groter zijn en dus een hogere maximale verticale sprong hebben.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit is een klassiek voorbeeld van multicollineariteit, waardoor de schattingen van de co\u00ebffici\u00ebnten een beetje vergezocht en niet intu\u00eftief lijken.<\/span><\/p>\n<h2> <strong><span style=\"color: #000000;\">Hoe multicollineariteit op te lossen<\/span><\/strong><\/h2>\n<p> <span style=\"color: #000000;\">Als u multicollineariteit constateert, is de volgende stap het beslissen of u dit op de een of andere manier moet oplossen. Afhankelijk van het doel van uw regressieanalyse hoeft u wellicht geen multicollineariteit op te lossen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Weten:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Als er sprake is van slechts matige multicollineariteit, hoeft u dit waarschijnlijk op geen enkele manier op te lossen.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Multicollineariteit heeft alleen invloed op voorspellende variabelen die met elkaar gecorreleerd zijn. Als u ge\u00efnteresseerd bent in een voorspellende variabele in het model die geen last heeft van multicollineariteit, dan is multicollineariteit geen probleem.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Multicollineariteit heeft invloed op co\u00ebffici\u00ebntschattingen en p-waarden, maar heeft geen invloed op voorspellingen of goodness-of-fit-statistieken. Dit betekent dat als uw primaire doel met regressie het doen van voorspellingen is en u niet ge\u00efnteresseerd bent in het begrijpen van de exacte relatie tussen de voorspellende variabelen en de responsvariabele, multicollineariteit niet hoeft te worden opgelost.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als u vaststelt dat u multicollineariteit <em>moet<\/em> corrigeren, zijn enkele veelvoorkomende oplossingen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Verwijder een of meer van de sterk gecorreleerde variabelen.<\/strong> Dit is in de meeste gevallen de snelste oplossing en is vaak een acceptabele oplossing omdat de variabelen die u verwijdert sowieso overbodig zijn en weinig unieke of onafhankelijke informatie aan het model toevoegen.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Combineert de voorspellende variabelen op een bepaalde manier lineair, bijvoorbeeld door ze op een of andere manier toe te voegen of af te trekken.<\/strong> Door dit te doen, kunt u een nieuwe variabele maken die de informatie van beide variabelen omvat en heeft u niet langer een multicollineariteitsprobleem.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Voer een analyse uit die is ontworpen om rekening te houden met sterk gecorreleerde variabelen, zoals <a href=\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">hoofdcomponentenanalyse<\/a> of <a href=\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/\" target=\"_blank\" rel=\"noopener noreferrer\">PLS-regressie (parti\u00eble kleinste kwadraten)<\/a> .<\/strong> Deze technieken zijn specifiek ontworpen om sterk gecorreleerde voorspellende variabelen te verwerken.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Multicollineariteit bij regressieanalyse treedt op wanneer twee of meer voorspellende variabelen sterk met elkaar gecorreleerd zijn, zodat ze geen unieke of onafhankelijke informatie verschaffen in het regressiemodel. Als de mate van correlatie tussen variabelen hoog genoeg is, kan dit problemen veroorzaken bij het aanpassen en interpreteren van het regressiemodel. Stel dat u bijvoorbeeld een regressieanalyse [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-462","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Een gids voor multicollineariteit en VIF in regressie - Statorials<\/title>\n<meta name=\"description\" content=\"In deze tutorial wordt uitgelegd waarom multicollineariteit een probleem is bij regressieanalyse, hoe u dit kunt detecteren en hoe u dit kunt oplossen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Een gids voor multicollineariteit en VIF in regressie - Statorials\" \/>\n<meta property=\"og:description\" content=\"In deze tutorial wordt uitgelegd waarom multicollineariteit een probleem is bij regressieanalyse, hoe u dit kunt detecteren en hoe u dit kunt oplossen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-29T20:10:11+00:00\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"5\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\",\"url\":\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\",\"name\":\"Een gids voor multicollineariteit en VIF in regressie - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-29T20:10:11+00:00\",\"dateModified\":\"2023-07-29T20:10:11+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"In deze tutorial wordt uitgelegd waarom multicollineariteit een probleem is bij regressieanalyse, hoe u dit kunt detecteren en hoe u dit kunt oplossen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Een gids voor multicollineariteit en vif in regressie\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Een gids voor multicollineariteit en VIF in regressie - Statorials","description":"In deze tutorial wordt uitgelegd waarom multicollineariteit een probleem is bij regressieanalyse, hoe u dit kunt detecteren en hoe u dit kunt oplossen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/","og_locale":"de_DE","og_type":"article","og_title":"Een gids voor multicollineariteit en VIF in regressie - Statorials","og_description":"In deze tutorial wordt uitgelegd waarom multicollineariteit een probleem is bij regressieanalyse, hoe u dit kunt detecteren en hoe u dit kunt oplossen.","og_url":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/","og_site_name":"Statorials","article_published_time":"2023-07-29T20:10:11+00:00","author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"5\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/","url":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/","name":"Een gids voor multicollineariteit en VIF in regressie - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-29T20:10:11+00:00","dateModified":"2023-07-29T20:10:11+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"In deze tutorial wordt uitgelegd waarom multicollineariteit een probleem is bij regressieanalyse, hoe u dit kunt detecteren en hoe u dit kunt oplossen.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Een gids voor multicollineariteit en vif in regressie"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/462","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=462"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/462\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=462"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=462"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=462"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}