{"id":1209,"date":"2023-07-27T07:03:03","date_gmt":"2023-07-27T07:03:03","guid":{"rendered":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/"},"modified":"2023-07-27T07:03:03","modified_gmt":"2023-07-27T07:03:03","slug":"gedeeltelijke-kleinste-kwadraten","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/","title":{"rendered":"Een inleiding tot gedeeltelijke kleinste kwadraten"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Een van de meest voorkomende problemen die u tegenkomt bij machinaal leren is <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">multicollineariteit<\/a> . Dit gebeurt wanneer twee of meer voorspellende variabelen in een dataset sterk gecorreleerd zijn.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer dit gebeurt, kan een model mogelijk goed in een trainingsdataset passen, maar kan het slecht presteren op een nieuwe dataset die het nog nooit heeft gezien, omdat het de trainingsdataset <a href=\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">te veel aanpast<\/a> . trainingsset.<\/span><\/p>\n<p> <span style=\"color: #000000;\">E\u00e9n manier om het probleem van multicollineariteit te omzeilen is het gebruik van <a href=\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressie van hoofdcomponenten<\/a> , waarbij <em>M<\/em> lineaire combinaties (zogenaamde &#8222;hoofdcomponenten&#8220;) van de oorspronkelijke <em>p-<\/em> voorspellingsvariabelen worden berekend en vervolgens de kleinste kwadratenmethode wordt gebruikt om een model van lineaire regressie te passen met behulp van hoofdcomponenten. componenten als voorspellers.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het nadeel van hoofdcomponentenregressie (PCR) is dat er geen rekening wordt gehouden met de <a href=\"https:\/\/statorials.org\/nl\/variabelen-verklarende-reacties\/\" target=\"_blank\" rel=\"noopener noreferrer\">responsvariabele<\/a> bij het berekenen van de hoofdcomponenten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In plaats daarvan wordt alleen rekening gehouden met de omvang van de variantie tussen de voorspellende variabelen die door de hoofdcomponenten worden vastgelegd. Om deze reden is het mogelijk dat in sommige gevallen de hoofdcomponenten met de grootste afwijkingen de responsvariabele niet goed kunnen voorspellen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Een techniek die verband houdt met PCR staat bekend als <strong>gedeeltelijke kleinste kwadraten<\/strong> . Net als bij PCR berekent Parti\u00eble kleinste kwadraten <em>M<\/em> lineaire combinaties (&#8222;PLS-componenten&#8220; genoemd) van de oorspronkelijke <em>p-<\/em> voorspellingsvariabelen en gebruikt de kleinste kwadratenmethode om een lineair regressiemodel te passen met behulp van de PLS-componenten als voorspellers.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Maar in tegenstelling tot PCR probeert de gedeeltelijke kleinste kwadraten lineaire combinaties te vinden die de variatie in <em>zowel<\/em> de responsvariabele als de voorspellende variabelen verklaren.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stappen om gedeeltelijke kleinste kwadraten uit te voeren<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In de praktijk worden de volgende stappen gebruikt om gedeeltelijke kleinste kwadraten uit te voeren.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong><\/span> <span style=\"color: #000000;\">Standaardiseer de gegevens zodanig dat alle voorspellende variabelen en de responsvariabele een gemiddelde van 0 en een standaarddeviatie van 1 hebben. Dit zorgt ervoor dat elke variabele op dezelfde schaal wordt gemeten.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Bereken Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> als de <em>M<\/em> lineaire combinaties van de oorspronkelijke <em>p-<\/em> voorspellers.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Zm<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6<\/sub> <sub>jm<\/sub> <sub>_<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Om Z <sub>1<\/sub> te berekenen, stelt u \u03a6 <sub>j1<\/sub> gelijk aan de co\u00ebffici\u00ebnt van de eenvoudige lineaire regressie van Y op X. <sub>j<\/sub> is de lineaire combinatie van voorspellers die zoveel mogelijk variantie vastlegt.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Om Z <sub>2<\/sub> te berekenen, regressiet u elke variabele op Z <sub>1<\/sub> en neemt u de residuen. Bereken vervolgens Z <sub>2<\/sub> met behulp van deze orthogonale gegevens op precies dezelfde manier waarop Z <sub>1<\/sub> werd berekend.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Herhaal dit proces <em>M<\/em> keer om <em>M<\/em> PLS-componenten te verkrijgen.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Gebruik de kleinste kwadratenmethode om een lineair regressiemodel te fitten met behulp van de PLS-componenten Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> als voorspellers.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>4.<\/strong> Gebruik ten slotte<\/span> <span style=\"color: #000000;\"><a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-voudige kruisvalidatie<\/a> om het optimale aantal PLS-componenten te vinden dat in het model moet worden behouden. Het \u2018optimale\u2019 aantal te behouden PLS-componenten is over het algemeen het getal dat de laagste test mean square error (MSE) oplevert.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Conclusie<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In gevallen waarin multicollineariteit aanwezig is in een dataset, presteert gedeeltelijke kleinste kwadratenregressie doorgaans beter dan gewone kleinste kwadratenregressie. Het is echter een goed idee om verschillende modellen te gebruiken, zodat u kunt bepalen welk model het beste generaliseert naar ongeziene gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In de praktijk passen we veel verschillende soorten modellen (PLS, <a href=\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\" target=\"_blank\" rel=\"noopener noreferrer\">PCR<\/a> , <a href=\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge<\/a> , <a href=\"https:\/\/statorials.org\/nl\/lasso-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Lasso<\/a> , <a href=\"https:\/\/statorials.org\/nl\/meerdere-lineaire-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Multiple Linear Regression<\/a> , enz.) toe aan een dataset en gebruiken we k-voudige kruisvalidatie om het model te identificeren dat de MSE-test het beste oplevert. lager op nieuwe gegevens. .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Een van de meest voorkomende problemen die u tegenkomt bij machinaal leren is multicollineariteit . Dit gebeurt wanneer twee of meer voorspellende variabelen in een dataset sterk gecorreleerd zijn. Wanneer dit gebeurt, kan een model mogelijk goed in een trainingsdataset passen, maar kan het slecht presteren op een nieuwe dataset die het nog nooit heeft [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1209","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Een inleiding tot gedeeltelijke kleinste kwadraten - Statorials<\/title>\n<meta name=\"description\" content=\"Deze tutorial biedt een inleiding tot gedeeltelijke kleinste kwadraten, een veelgebruikte techniek voor dimensiereductie die wordt gebruikt bij machinaal leren.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Een inleiding tot gedeeltelijke kleinste kwadraten - Statorials\" \/>\n<meta property=\"og:description\" content=\"Deze tutorial biedt een inleiding tot gedeeltelijke kleinste kwadraten, een veelgebruikte techniek voor dimensiereductie die wordt gebruikt bij machinaal leren.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:03:03+00:00\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/\",\"url\":\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/\",\"name\":\"Een inleiding tot gedeeltelijke kleinste kwadraten - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T07:03:03+00:00\",\"dateModified\":\"2023-07-27T07:03:03+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"Deze tutorial biedt een inleiding tot gedeeltelijke kleinste kwadraten, een veelgebruikte techniek voor dimensiereductie die wordt gebruikt bij machinaal leren.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Een inleiding tot gedeeltelijke kleinste kwadraten\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Een inleiding tot gedeeltelijke kleinste kwadraten - Statorials","description":"Deze tutorial biedt een inleiding tot gedeeltelijke kleinste kwadraten, een veelgebruikte techniek voor dimensiereductie die wordt gebruikt bij machinaal leren.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/","og_locale":"de_DE","og_type":"article","og_title":"Een inleiding tot gedeeltelijke kleinste kwadraten - Statorials","og_description":"Deze tutorial biedt een inleiding tot gedeeltelijke kleinste kwadraten, een veelgebruikte techniek voor dimensiereductie die wordt gebruikt bij machinaal leren.","og_url":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:03:03+00:00","author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"3\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/","url":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/","name":"Een inleiding tot gedeeltelijke kleinste kwadraten - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T07:03:03+00:00","dateModified":"2023-07-27T07:03:03+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"Deze tutorial biedt een inleiding tot gedeeltelijke kleinste kwadraten, een veelgebruikte techniek voor dimensiereductie die wordt gebruikt bij machinaal leren.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/gedeeltelijke-kleinste-kwadraten\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Een inleiding tot gedeeltelijke kleinste kwadraten"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1209","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1209"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1209\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1209"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1209"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1209"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}