{"id":1240,"date":"2023-07-27T04:23:20","date_gmt":"2023-07-27T04:23:20","guid":{"rendered":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/"},"modified":"2023-07-27T04:23:20","modified_gmt":"2023-07-27T04:23:20","slug":"hoofdcomponentenanalyse-in-r","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/","title":{"rendered":"Hoofdcomponentenanalyse in r: stapsgewijs voorbeeld"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Principal Component Analysis, vaak afgekort PCA, is een machine learning-techniek <a href=\"https:\/\/statorials.org\/nl\/begeleid-versus-onbewaakt-leren\/\" target=\"_blank\" rel=\"noopener noreferrer\">zonder toezicht<\/a> die probeert de belangrijkste componenten te vinden \u2013 lineaire combinaties van de oorspronkelijke voorspellers \u2013 die een groot deel van de variatie in een dataset verklaren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het doel van PCA is om het grootste deel van de variabiliteit in een dataset te verklaren met minder variabelen dan de oorspronkelijke dataset.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Voor een gegeven dataset met <em>p<\/em> -variabelen zouden we de spreidingsdiagrammen van elke paarsgewijze combinatie van variabelen kunnen onderzoeken, maar het aantal spreidingsdiagrammen kan zeer snel groot worden.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Voor <em>p-<\/em> voorspellers bestaan er p(p-1)\/2-puntenwolken.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Voor een dataset met p = 15 voorspellers zouden er dus 105 verschillende spreidingsdiagrammen zijn!<\/span><\/p>\n<p> <span style=\"color: #000000;\">Gelukkig biedt PCA een manier om een laagdimensionale weergave van een dataset te vinden die zoveel mogelijk van de variatie in de gegevens vastlegt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als we het grootste deel van de variatie in slechts twee dimensies kunnen vastleggen, kunnen we alle waarnemingen uit de oorspronkelijke dataset op een eenvoudig spreidingsdiagram projecteren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De manier waarop we de belangrijkste componenten vinden is als volgt:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><sub>Gegeven<\/sub> <sub>een<\/sub> <sub>dataset<\/sub> <sub>met<\/sub> <em>p-<\/em> <sub>voorspellers<\/sub> <em>:<\/em> <em>_<\/em><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Zm<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6<\/sub> <sub>jm<\/sub> <sub>_<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>1<\/sub> is de lineaire combinatie van voorspellers die zoveel mogelijk variantie vastlegt.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>2<\/sub> is de volgende lineaire combinatie van voorspellers die de meeste variantie vastlegt terwijl deze <em>orthogonaal<\/em> (dat wil zeggen niet gecorreleerd) is met Z <sub>1<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>3<\/sub> is dan de volgende lineaire combinatie van voorspellers die de meeste variantie vastlegt terwijl deze orthogonaal is ten opzichte van Z <sub>2<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Enzovoort.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In de praktijk gebruiken we de volgende stappen om de lineaire combinaties van de oorspronkelijke voorspellers te berekenen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Schaal elk van de variabelen zodanig dat ze een gemiddelde van 0 en een standaarddeviatie van 1 hebben.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Bereken de covariantiematrix voor de geschaalde variabelen.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Bereken de eigenwaarden van de covariantiematrix.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Met behulp van lineaire algebra kunnen we aantonen dat de eigenvector die overeenkomt met de grootste eigenwaarde de eerste hoofdcomponent is. Met andere woorden: deze specifieke combinatie van voorspellers verklaart de grootste variantie in de gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De eigenvector die overeenkomt met de op een na grootste eigenwaarde is de tweede hoofdcomponent, enzovoort.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u dit proces in R kunt uitvoeren.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stap 1: Gegevens laden<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">We laden eerst het <strong>Tidyverse-<\/strong> pakket, dat verschillende handige functies bevat voor het visualiseren en manipuleren van gegevens:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\">library<\/span> (tidyverse)\n<\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Voor dit voorbeeld gebruiken we de in R ingebouwde dataset <em>USArrests<\/em> , die het aantal arrestaties per 100.000 inwoners in elke Amerikaanse staat in 1973 bevat voor <em>moord<\/em> , <em>mishandeling<\/em> en <em>verkrachting<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het omvat ook het percentage van de bevolking van elke staat dat in stedelijke gebieden woont, <em>UrbanPop<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">De volgende code laat zien hoe u de eerste rijen van de gegevensset laadt en weergeeft:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #008080;\">#load data<\/span>\n<span style=\"color: #000000;\">data<\/span><\/span> <span style=\"color: #000000;\">(\"USArrests\")<\/span>\n\n<span style=\"color: #008080;\">#view first six rows of data<\/span>\nhead(USArrests)\n\n           Murder Assault UrbanPop Rape\nAlabama 13.2 236 58 21.2\nAlaska 10.0 263 48 44.5\nArizona 8.1 294 80 31.0\nArkansas 8.8 190 50 19.5\nCalifornia 9.0 276 91 40.6\nColorado 7.9 204 78 38.7\n<\/strong><\/pre>\n<h3> <strong>Stap 2: Bereken de belangrijkste componenten<\/strong><\/h3>\n<p> <span style=\"color: #000000;\">Na het laden van de gegevens kunnen we de ingebouwde functie <strong>pcomp()<\/strong> van R gebruiken om de belangrijkste componenten van de gegevensset te berekenen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Zorg ervoor dat u <strong>scale = TRUE<\/strong> specificeert, zodat elk van de variabelen in de gegevensset wordt geschaald zodat het een gemiddelde van 0 en een standaarddeviatie van 1 heeft voordat u de hoofdcomponenten berekent.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Merk ook op dat de eigenvectoren in R standaard in de negatieve richting wijzen, dus we zullen vermenigvuldigen met -1 om de tekens om te keren.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#calculate main components\n<\/span>results &lt;- prcomp(USArrests, scale = <span style=\"color: #008000;\">TRUE<\/span> )\n\n<span style=\"color: #008080;\">#reverse the signs\n<\/span>results$rotation &lt;- -1*results$rotation\n\n<span style=\"color: #008080;\">#display main components\n<\/span>results$rotation\n\n               PC1 PC2 PC3 PC4\nMurder 0.5358995 -0.4181809 0.3412327 -0.64922780\nAssault 0.5831836 -0.1879856 0.2681484 0.74340748\nUrbanPop 0.2781909 0.8728062 0.3780158 -0.13387773\nRape 0.5434321 0.1673186 -0.8177779 -0.08902432<\/strong><\/pre>\n<p> <span style=\"color: #000000;\">We kunnen zien dat de eerste hoofdcomponent (PC1) hoge waarden heeft voor moord, mishandeling en verkrachting, wat aangeeft dat deze hoofdcomponent de grootste variatie in deze variabelen beschrijft.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We kunnen ook zien dat de tweede hoofdcomponent (PC2) een hoge waarde heeft voor UrbanPop, wat aangeeft dat deze hoofdcomponent de stedelijke bevolking benadrukt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Houd er rekening mee dat de hoofdcomponentscores voor elke status worden opgeslagen in <strong>results$x<\/strong> . We zullen deze scores ook met -1 vermenigvuldigen om de tekens om te keren:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#reverse the signs of the scores\n<\/span>results$x &lt;- -1*results$x\n\n<span style=\"color: #008080;\">#display the first six scores\n<span style=\"color: #000000;\">head(results$x)<\/span>\n<\/span><span style=\"color: #000000;\">\n                  PC1 PC2 PC3 PC4\nAlabama 0.9756604 -1.1220012 0.43980366 -0.154696581\nAlaska 1.9305379 -1.0624269 -2.01950027 0.434175454\nArizona 1.7454429 0.7384595 -0.05423025 0.826264240\nArkansas -0.1399989 -1.1085423 -0.11342217 0.180973554\nCalifornia 2.4986128 1.5274267 -0.59254100 0.338559240\nColorado 1.4993407 0.9776297 -1.08400162 -0.001450164\n<\/span><\/strong><\/pre>\n<h3> <strong>Stap 3: Visualiseer de resultaten met een biplot<\/strong><\/h3>\n<p> <span style=\"color: #000000;\">Vervolgens kunnen we een <strong>biplot<\/strong> maken \u2013 een plot die elk van de waarnemingen in de dataset projecteert op een spreidingsdiagram dat de eerste en tweede hoofdcomponent als assen gebruikt:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Merk op dat <strong>schaal = 0<\/strong> ervoor zorgt dat de pijlen in de grafiek worden geschaald om de belastingen weer te geven.<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong>biplot(results, scale = <span style=\"color: #008000;\">0<\/span> )\n<\/strong><\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12281 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/pca1.png\" alt=\"Biplot voor hoofdcomponentenanalyse in R\" width=\"465\" height=\"464\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Vanuit de plot kunnen we elk van de 50 toestanden zien weergegeven in een eenvoudige tweedimensionale ruimte.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Staten die in de grafiek dicht bij elkaar liggen, hebben vergelijkbare gegevenspatronen met betrekking tot de variabelen in de oorspronkelijke gegevensset.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We kunnen ook zien dat sommige staten sterker betrokken zijn bij bepaalde misdaden dan andere. Georgi\u00eb is bijvoorbeeld de staat die het dichtst bij de <em>moordvariabele<\/em> in het plot ligt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als we kijken naar de staten met de hoogste moordcijfers in de oorspronkelijke dataset, kunnen we zien dat Georgi\u00eb bovenaan de lijst staat:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#display states with highest murder rates in original dataset<\/span>\nhead(USArrests[ <span style=\"color: #3366ff;\">order<\/span> (-USArrests$Murder),])\n\n               Murder Assault UrbanPop Rape\nGeorgia 17.4 211 60 25.8\nMississippi 16.1 259 44 17.1\nFlorida 15.4 335 80 31.9\nLouisiana 15.4 249 66 22.2\nSouth Carolina 14.4 279 48 22.5\nAlabama 13.2 236 58 21.2<\/strong><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Stap 4: Zoek de variantie die door elke hoofdcomponent wordt verklaard<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">We kunnen de volgende code gebruiken om de totale variantie in de originele dataset te berekenen, uitgelegd door elke hoofdcomponent:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#calculate total variance explained by each principal component\n<\/span>results$sdev^2 \/ <span style=\"color: #3366ff;\">sum<\/span> (results$sdev^2)\n\n[1] 0.62006039 0.24744129 0.08914080 0.04335752\n<\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Uit de resultaten kunnen we het volgende opmaken:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">De eerste hoofdcomponent verklaart <strong>62%<\/strong> van de totale variantie in de dataset.<\/span><\/li>\n<li> <span style=\"color: #000000;\">De tweede hoofdcomponent verklaart <strong>24,7%<\/strong> van de totale variantie in de dataset.<\/span><\/li>\n<li> <span style=\"color: #000000;\">De derde hoofdcomponent verklaart <strong>8,9%<\/strong> van de totale variantie in de dataset.<\/span><\/li>\n<li> <span style=\"color: #000000;\">De vierde hoofdcomponent verklaart <strong>4,3%<\/strong> van de totale variantie in de dataset.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">De eerste twee hoofdcomponenten verklaren dus het grootste deel van de totale variantie in de gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit is een goed teken omdat de vorige biplot elk van de waarnemingen uit de originele gegevens projecteerde op een spreidingsdiagram dat alleen rekening hield met de eerste twee hoofdcomponenten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het is dus geldig om de patronen in de biplot te onderzoeken om toestanden te identificeren die op elkaar lijken.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We kunnen ook een <strong>scree plot<\/strong> maken \u2013 een grafiek die de totale variantie weergeeft die door elke hoofdcomponent wordt verklaard \u2013 om de PCA-resultaten te visualiseren:<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#calculate total variance explained by each principal component\n<\/span>var_explained = results$sdev^2 \/ <span style=\"color: #3366ff;\">sum<\/span> (results$sdev^2)\n\n<span style=\"color: #008080;\">#create scree plot\n<\/span>qplot(c(1:4), var_explained) + \n  geom_line() + \n  xlab(\" <span style=\"color: #008000;\">Principal Component<\/span> \") + \n  ylab(\" <span style=\"color: #008000;\">Variance Explained<\/span> \") +\n  ggtitle(\" <span style=\"color: #008000;\">Scree Plot<\/span> \") +\n  ylim(0, 1)<\/strong> <\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12282 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/pca2.png\" alt=\"R-vormig puinterrein\" width=\"427\" height=\"428\" srcset=\"\" sizes=\"auto, \"><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Hoofdcomponentenanalyse in de praktijk<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In de praktijk wordt PCA het vaakst gebruikt om twee redenen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Verkennende data-analyse<\/strong> \u2013 We gebruiken PCA wanneer we voor het eerst een dataset verkennen en willen begrijpen welke observaties in de data het meest op elkaar lijken.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Regressie van hoofdcomponenten<\/strong> \u2013 We kunnen PCA ook gebruiken om hoofdcomponenten te berekenen die vervolgens kunnen worden gebruikt bij <a href=\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressie van hoofdcomponenten<\/a> . Dit type regressie wordt vaak gebruikt als er <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">multicollineariteit<\/a> bestaat tussen de voorspellers in een dataset.<\/span><\/p>\n<hr>\n<p> <span style=\"color: #000000;\">De volledige R-code die in deze tutorial wordt gebruikt, vindt u <a href=\"https:\/\/github.com\/Statorials\/R-Guides\/blob\/main\/pca.R\" target=\"_blank\" rel=\"noopener noreferrer\">hier<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Principal Component Analysis, vaak afgekort PCA, is een machine learning-techniek zonder toezicht die probeert de belangrijkste componenten te vinden \u2013 lineaire combinaties van de oorspronkelijke voorspellers \u2013 die een groot deel van de variatie in een dataset verklaren. Het doel van PCA is om het grootste deel van de variabiliteit in een dataset te verklaren [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1240","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Hoofdcomponentenanalyse in R: stapsgewijs voorbeeld<\/title>\n<meta name=\"description\" content=\"Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u een hoofdcomponentanalyse uitvoert in R.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Hoofdcomponentenanalyse in R: stapsgewijs voorbeeld\" \/>\n<meta property=\"og:description\" content=\"Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u een hoofdcomponentanalyse uitvoert in R.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T04:23:20+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/pca1.png\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"6\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/\",\"url\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/\",\"name\":\"Hoofdcomponentenanalyse in R: stapsgewijs voorbeeld\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T04:23:20+00:00\",\"dateModified\":\"2023-07-27T04:23:20+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u een hoofdcomponentanalyse uitvoert in R.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Hoofdcomponentenanalyse in r: stapsgewijs voorbeeld\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Hoofdcomponentenanalyse in R: stapsgewijs voorbeeld","description":"Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u een hoofdcomponentanalyse uitvoert in R.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/","og_locale":"de_DE","og_type":"article","og_title":"Hoofdcomponentenanalyse in R: stapsgewijs voorbeeld","og_description":"Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u een hoofdcomponentanalyse uitvoert in R.","og_url":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/","og_site_name":"Statorials","article_published_time":"2023-07-27T04:23:20+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/pca1.png"}],"author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"6\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/","url":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/","name":"Hoofdcomponentenanalyse in R: stapsgewijs voorbeeld","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T04:23:20+00:00","dateModified":"2023-07-27T04:23:20+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u een hoofdcomponentanalyse uitvoert in R.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/hoofdcomponentenanalyse-in-r\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Hoofdcomponentenanalyse in r: stapsgewijs voorbeeld"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1240","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1240"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1240\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1240"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1240"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1240"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}