{"id":1201,"date":"2023-07-27T07:44:59","date_gmt":"2023-07-27T07:44:59","guid":{"rendered":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/"},"modified":"2023-07-27T07:44:59","modified_gmt":"2023-07-27T07:44:59","slug":"regressie-van-hoofdcomponenten","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/","title":{"rendered":"Een inleiding tot regressie van hoofdcomponenten"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Een van de meest voorkomende problemen die u tegenkomt bij het maken van modellen is <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">multicollineariteit<\/a> . Dit gebeurt wanneer twee of meer voorspellende variabelen in een dataset sterk gecorreleerd zijn.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer dit gebeurt, kan een bepaald model wellicht goed in een trainingsdataset passen, maar zal het waarschijnlijk slecht presteren op een nieuwe dataset die het nog nooit heeft gezien, omdat het <a href=\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">te veel past in<\/a> de trainingsset.<\/span><\/p>\n<p> <span style=\"color: #000000;\">E\u00e9n manier om overfitting te voorkomen, is door een soort <strong>subsetselectiemethode<\/strong> te gebruiken, zoals:<\/span><\/p>\n<ul>\n<li> <a href=\"https:\/\/statorials.org\/nl\/beste-selectie-van-subsets\/\" target=\"_blank\" rel=\"noopener noreferrer\">Beste subsetselectie<\/a><\/li>\n<li> <a href=\"https:\/\/statorials.org\/nl\/selectie-per-fase\/\" target=\"_blank\" rel=\"noopener noreferrer\">Gefaseerde selectie<\/a><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Deze methoden proberen irrelevante voorspellers uit het model te verwijderen, zodat alleen de belangrijkste voorspellers die variatie in de responsvariabele kunnen voorspellen in het uiteindelijke model overblijven.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Een andere manier om overfitting te voorkomen is het gebruik van een vorm van <strong>regularisatiemethode<\/strong> , zoals:<\/span><\/p>\n<ul>\n<li> <a href=\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\" target=\"_blank\" rel=\"noopener noreferrer\">Piekregressie<\/a><\/li>\n<li> <a href=\"https:\/\/statorials.org\/nl\/lasso-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Lasso-regressie<\/a><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Deze methoden proberen de co\u00ebffici\u00ebnten van een model te beperken of <em>te regulariseren<\/em> om de variantie te verminderen en zo modellen te produceren die goed kunnen generaliseren naar nieuwe gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Een geheel andere benadering van het omgaan met multicollineariteit staat bekend als <strong>dimensionale reductie<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Een gebruikelijke methode voor dimensiereductie staat bekend als <strong>hoofdcomponentregressie<\/strong> , die als volgt werkt:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Stel dat <sub>een<\/sub> gegeven dataset <em>p<\/em> <sub>voorspellers<\/sub> bevat <sub>:<\/sub><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Bereken Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> als de <em>M<\/em> lineaire combinaties van de oorspronkelijke <em>p-<\/em> voorspellers.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Zm<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6<\/sub> <sub>jm<\/sub> <sub>_<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>1<\/sub> is de lineaire combinatie van voorspellers die zoveel mogelijk variantie vastlegt.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>2<\/sub> is de volgende lineaire combinatie van voorspellers die de meeste variantie vastlegt terwijl deze <em>orthogonaal<\/em> (dat wil zeggen niet gecorreleerd) is met Z <sub>1<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>3<\/sub> is dan de volgende lineaire combinatie van voorspellers die de meeste variantie vastlegt terwijl deze orthogonaal is ten opzichte van Z <sub>2<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Enzovoort.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Gebruik de kleinste kwadratenmethode om een lineair regressiemodel te fitten met behulp van de eerste <em>M<\/em> hoofdcomponenten Z <sub>1<\/sub> , \u2026, Z <sub>M<\/sub> als voorspellers.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De term <strong>dimensiereductie<\/strong> komt voort uit het feit dat deze methode alleen M+1-co\u00ebffici\u00ebnten moet schatten in plaats van p+1-co\u00ebffici\u00ebnten, waarbij M &lt; p.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Met andere woorden: de <em>dimensie<\/em> van het probleem is teruggebracht van p+1 naar M+1.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In veel gevallen waarin multicollineariteit aanwezig is in een dataset, kan hoofdcomponentregressie een model produceren dat beter kan generaliseren naar nieuwe gegevens dan conventionele <a href=\"https:\/\/statorials.org\/nl\/meerdere-lineaire-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">meervoudige lineaire regressie<\/a> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stappen om hoofdcomponentregressie uit te voeren<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In de praktijk worden de volgende stappen gebruikt om hoofdcomponentenregressie uit te voeren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Standaardiseer de voorspellers.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Ten eerste standaardiseren we de gegevens doorgaans zo dat elke voorspellende variabele een gemiddelde waarde van 0 en een standaarddeviatie van 1 heeft. Dit voorkomt dat \u00e9\u00e9n voorspeller te veel invloed heeft, vooral als deze in verschillende eenheden wordt gemeten (c dat wil zeggen, als <sub>1<\/sub> wordt gemeten in inches). en <sub>X2<\/sub> wordt gemeten in yards).<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Bereken de hoofdcomponenten en voer een lineaire regressie uit, waarbij u de hoofdcomponenten als voorspellers gebruikt.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Vervolgens berekenen we de hoofdcomponenten en gebruiken we de kleinste kwadratenmethode om een lineair regressiemodel te fitten met behulp van de eerste <em>M<\/em> hoofdcomponenten Z <sub>1<\/sub> , \u2026, Z <sub>M<\/sub> als voorspellers.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Bepaal hoeveel belangrijke componenten je wilt behouden.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Vervolgens gebruiken we <a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-voudige kruisvalidatie<\/a> om het optimale aantal hoofdcomponenten te vinden dat we in het model kunnen behouden. Het \u201coptimale\u201d aantal te behouden hoofdcomponenten is doorgaans het getal dat de laagste gemiddelde kwadratische fout (MSE) van de test oplevert.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Voor- en nadelen van regressie van hoofdcomponenten<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Principal Component Regressie (PCR) biedt de volgende <strong>voordelen<\/strong> :<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">PCR heeft de neiging goed te presteren wanneer de eerste hoofdcomponenten in staat zijn de meeste variatie in de voorspellers vast te leggen, evenals de relatie met de responsvariabele.<\/span><\/li>\n<li> <span style=\"color: #000000;\">PCR kan zelfs goed presteren als de voorspellende variabelen sterk gecorreleerd zijn, omdat het hoofdcomponenten produceert die orthogonaal (dwz niet gecorreleerd) met elkaar zijn.<\/span><\/li>\n<li> <span style=\"color: #000000;\">PCR vereist niet dat u kiest welke voorspellende variabelen u uit het model wilt verwijderen, aangezien elke hoofdcomponent een lineaire combinatie van alle voorspellende variabelen gebruikt.<\/span><\/li>\n<li> <span style=\"color: #000000;\">PCR kan worden gebruikt als er meer voorspellende variabelen zijn dan waarnemingen, in tegenstelling tot meervoudige lineaire regressie.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">PCR heeft echter een <strong>nadeel:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">PCR houdt geen rekening met de responsvariabele bij het beslissen welke belangrijke componenten behouden of verwijderd moeten worden. In plaats daarvan wordt alleen rekening gehouden met de omvang van de variantie tussen de voorspellende variabelen die door de hoofdcomponenten worden vastgelegd. Het is mogelijk dat in sommige gevallen de belangrijkste componenten met de grootste verschillen de responsvariabele niet goed kunnen voorspellen.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In de praktijk passen we veel verschillende soorten modellen toe (PCR, Ridge, Lasso, meervoudige lineaire regressie, enz.) en gebruiken we k-voudige kruisvalidatie om het model te identificeren dat de laagste MSE-test op de nieuwe gegevens oplevert.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In gevallen waarin multicollineariteit aanwezig is in de oorspronkelijke dataset (wat vaak het geval is), heeft PCR de neiging beter te presteren dan gewone regressie met de kleinste kwadraten. Het is echter een goed idee om verschillende modellen te gebruiken, zodat u kunt bepalen welk model het beste generaliseert naar ongeziene gegevens.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regressie van hoofdcomponenten in R en Python<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">De volgende zelfstudies laten zien hoe u regressie van hoofdcomponenten uitvoert in R en Python:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Hoofdcomponentregressie in R (stap voor stap)<\/a><br \/> <a href=\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressie van hoofdcomponenten in Python (stap voor stap)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Een van de meest voorkomende problemen die u tegenkomt bij het maken van modellen is multicollineariteit . Dit gebeurt wanneer twee of meer voorspellende variabelen in een dataset sterk gecorreleerd zijn. Wanneer dit gebeurt, kan een bepaald model wellicht goed in een trainingsdataset passen, maar zal het waarschijnlijk slecht presteren op een nieuwe dataset die [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1201","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Een inleiding tot regressie van hoofdcomponenten<\/title>\n<meta name=\"description\" content=\"Deze zelfstudie biedt een korte introductie tot regressie van hoofdcomponenten, een veelgebruikte techniek die wordt gebruikt bij machinaal leren.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Een inleiding tot regressie van hoofdcomponenten\" \/>\n<meta property=\"og:description\" content=\"Deze zelfstudie biedt een korte introductie tot regressie van hoofdcomponenten, een veelgebruikte techniek die wordt gebruikt bij machinaal leren.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:44:59+00:00\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"4\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\",\"url\":\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\",\"name\":\"Een inleiding tot regressie van hoofdcomponenten\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T07:44:59+00:00\",\"dateModified\":\"2023-07-27T07:44:59+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"Deze zelfstudie biedt een korte introductie tot regressie van hoofdcomponenten, een veelgebruikte techniek die wordt gebruikt bij machinaal leren.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Een inleiding tot regressie van hoofdcomponenten\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Een inleiding tot regressie van hoofdcomponenten","description":"Deze zelfstudie biedt een korte introductie tot regressie van hoofdcomponenten, een veelgebruikte techniek die wordt gebruikt bij machinaal leren.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/","og_locale":"de_DE","og_type":"article","og_title":"Een inleiding tot regressie van hoofdcomponenten","og_description":"Deze zelfstudie biedt een korte introductie tot regressie van hoofdcomponenten, een veelgebruikte techniek die wordt gebruikt bij machinaal leren.","og_url":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:44:59+00:00","author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"4\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/","url":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/","name":"Een inleiding tot regressie van hoofdcomponenten","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T07:44:59+00:00","dateModified":"2023-07-27T07:44:59+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"Deze zelfstudie biedt een korte introductie tot regressie van hoofdcomponenten, een veelgebruikte techniek die wordt gebruikt bij machinaal leren.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Een inleiding tot regressie van hoofdcomponenten"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1201","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1201"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1201\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1201"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1201"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1201"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}