{"id":1206,"date":"2023-07-27T07:20:18","date_gmt":"2023-07-27T07:20:18","guid":{"rendered":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/"},"modified":"2023-07-27T07:20:18","modified_gmt":"2023-07-27T07:20:18","slug":"hoofdcomponentenregressie-in-python","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/","title":{"rendered":"Regressie van hoofdcomponenten in python (stap voor stap)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Gegeven een reeks <em>p-<\/em> voorspellingsvariabelen en een responsvariabele, gebruikt <a href=\"https:\/\/statorials.org\/nl\/meerdere-lineaire-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">meervoudige lineaire regressie<\/a> een methode die bekend staat als de kleinste kwadraten om de resterende som van kwadraten (RSS) te minimaliseren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Een Grieks symbool dat <em>som<\/em> betekent<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : de werkelijke responswaarde voor de <sup>i-de<\/sup> waarneming<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : De voorspelde responswaarde op basis van het meervoudige lineaire regressiemodel<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Wanneer voorspellende variabelen echter sterk gecorreleerd zijn,<\/span> kan <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">multicollineariteit<\/a> <span style=\"color: #000000;\">een probleem worden. Dit kan schattingen van modelco\u00ebffici\u00ebnten onbetrouwbaar maken en een hoge variantie vertonen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">E\u00e9n manier om dit probleem te vermijden is het gebruik van <a href=\"https:\/\/statorials.org\/nl\/regressie-van-hoofdcomponenten\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressie van hoofdcomponenten<\/a> , waarbij <em>M<\/em> lineaire combinaties (zogenaamde &#8222;hoofdcomponenten&#8220;) van de oorspronkelijke <em>p-<\/em> voorspellers worden gevonden en vervolgens de kleinste kwadraten worden gebruikt om een lineair regressiemodel te passen met behulp van de hoofdcomponenten als voorspellers.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze zelfstudie biedt een stapsgewijs voorbeeld van hoe u regressie van hoofdcomponenten in Python kunt uitvoeren.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stap 1: Importeer de benodigde pakketten<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\"><span style=\"color: #000000;\">Eerst importeren we de pakketten die nodig zijn om hoofdcomponentenregressie (PCR) uit te voeren in Python:<\/span><\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008000;\">import<\/span> numpy <span style=\"color: #008000;\">as<\/span> np\n<span style=\"color: #008000;\">import<\/span> pandas <span style=\"color: #008000;\">as<\/span> pd\n<span style=\"color: #008000;\">import<\/span> matplotlib. <span style=\"color: #3366ff;\">pyplot<\/span> <span style=\"color: #008000;\">as<\/span> plt\n<span style=\"color: #008000;\">from<\/span> sklearn. <span style=\"color: #3366ff;\">preprocessing<\/span> <span style=\"color: #008000;\">import<\/span> scale \n<span style=\"color: #008000;\">from<\/span> sklearn <span style=\"color: #008000;\">import<\/span> model_selection\n<span style=\"color: #008000;\">from<\/span> sklearn. <span style=\"color: #3366ff;\">model_selection<\/span> <span style=\"color: #008000;\">import<\/span> RepeatedKFold\n<span style=\"color: #008000;\">from<\/span> sklearn.model_selection <span style=\"color: #008000;\">import<\/span> train_test_split\n<span style=\"color: #008000;\">from<\/span> sklearn. PCA <span style=\"color: #008000;\">import<\/span> <span style=\"color: #3366ff;\">decomposition<\/span>\n<span style=\"color: #008000;\">from<\/span> sklearn. <span style=\"color: #3366ff;\">linear_model<\/span> <span style=\"color: #008000;\">import<\/span> LinearRegression\n<span style=\"color: #008000;\">from<\/span> sklearn. <span style=\"color: #3366ff;\">metrics<\/span> <span style=\"color: #008000;\">import<\/span> mean_squared_error\n<\/strong><\/span><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Stap 2: Gegevens laden<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Voor dit voorbeeld gebruiken we een dataset met de naam <strong>mtcars<\/strong> , die informatie bevat over 33 verschillende auto&#8217;s. We zullen <strong>hp<\/strong> gebruiken als de responsvariabele en de volgende variabelen als voorspellers:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">mpg<\/span><\/li>\n<li> <span style=\"color: #000000;\">weergave<\/span><\/li>\n<li> <span style=\"color: #000000;\">shit<\/span><\/li>\n<li> <span style=\"color: #000000;\">gewicht<\/span><\/li>\n<li> <span style=\"color: #000000;\">qsec<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><span style=\"color: #000000;\">De volgende code laat zien hoe u deze gegevensset laadt en weergeeft:<\/span><\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#define URL where data is located\n<\/span>url = \"https:\/\/raw.githubusercontent.com\/Statorials\/Python-Guides\/main\/mtcars.csv\"\n\n<span style=\"color: #008080;\">#read in data\n<\/span>data_full = pd. <span style=\"color: #3366ff;\">read_csv<\/span> (url)\n\n<span style=\"color: #008080;\">#select subset of data\n<\/span>data = data_full[[\"mpg\", \"disp\", \"drat\", \"wt\", \"qsec\", \"hp\"]]\n\n<span style=\"color: #008080;\">#view first six rows of data\n<\/span>data[0:6]\n\n\n        mpg disp drat wt qsec hp\n0 21.0 160.0 3.90 2.620 16.46 110\n1 21.0 160.0 3.90 2.875 17.02 110\n2 22.8 108.0 3.85 2.320 18.61 93\n3 21.4 258.0 3.08 3.215 19.44 110\n4 18.7 360.0 3.15 3.440 17.02 175\n5 18.1 225.0 2.76 3.460 20.22 105<\/strong><\/span><\/pre>\n<h3> <strong>Stap 3: Pas het PCR-model aan<\/strong><\/h3>\n<p> <span style=\"color: #000000;\">De volgende code laat zien hoe u het PCR-model aan deze gegevens kunt aanpassen. Let op het volgende:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>pca.fit_transform(scale(X))<\/strong> : Dit vertelt Python dat elk van de voorspellende variabelen moet worden geschaald om een gemiddelde van 0 en een standaarddeviatie van 1 te hebben. Dit zorgt ervoor dat geen enkele voorspellende variabele teveel invloed heeft in het model als dit gebeurt. in verschillende eenheden te meten.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>cv = RepeatedKFold()<\/strong> : Dit vertelt Python om <a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-voudige kruisvalidatie<\/a> te gebruiken om de modelprestaties te evalueren. Voor dit voorbeeld kiezen we k = 10 vouwen, 3 keer herhaald.<\/span> <\/li>\n<\/ul>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#define predictor and response variables\n<\/span>X = data[[\"mpg\", \"disp\", \"drat\", \"wt\", \"qsec\"]]\ny = data[[\"hp\"]]\n\n<span style=\"color: #008080;\">#scale predictor variables\n<\/span>pca = pca()\nX_reduced = pca. <span style=\"color: #3366ff;\">fit_transform<\/span> ( <span style=\"color: #3366ff;\">scale<\/span> (X))\n\n<span style=\"color: #008080;\">#define cross validation method\n<\/span>cv = RepeatedKFold(n_splits= <span style=\"color: #008000;\">10<\/span> , n_repeats= <span style=\"color: #008000;\">3<\/span> , random_state= <span style=\"color: #008000;\">1<\/span> )\n\nregr = LinearRegression()\nmse = []\n\n<span style=\"color: #008080;\"># Calculate MSE with only the intercept\n<\/span>score = -1*model_selection. <span style=\"color: #3366ff;\">cross_val_score<\/span> (regr,\n           n.p. <span style=\"color: #3366ff;\">ones<\/span> ((len(X_reduced),1)), y, cv=cv,\n           scoring=' <span style=\"color: #008000;\">neg_mean_squared_error<\/span> '). <span style=\"color: #3366ff;\">mean<\/span> ()    \nmse. <span style=\"color: #3366ff;\">append<\/span> (score)\n\n<span style=\"color: #008080;\"># Calculate MSE using cross-validation, adding one component at a time\n<\/span><span style=\"color: #008000;\">for<\/span> i <span style=\"color: #008000;\">in<\/span> np. <span style=\"color: #3366ff;\">arange<\/span> (1, 6):\n    score = -1*model_selection. <span style=\"color: #3366ff;\">cross_val_score<\/span> (regr,\n               X_reduced[:,:i], y, cv=cv, scoring=' <span style=\"color: #008000;\">neg_mean_squared_error<\/span> '). <span style=\"color: #3366ff;\">mean<\/span> ()\n    mse. <span style=\"color: #3366ff;\">append<\/span> (score)\n    \n<span style=\"color: #008080;\"># Plot cross-validation results    \n<\/span>plt. <span style=\"color: #3366ff;\">plot<\/span> (mse)\nplt. <span style=\"color: #3366ff;\">xlabel<\/span> ('Number of Principal Components')\nplt. <span style=\"color: #3366ff;\">ylabel<\/span> ('MSE')\nplt. <span style=\"color: #3366ff;\">title<\/span> ('hp')<\/strong><\/span> <\/pre>\n<h3><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11950 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/pcrpython1.png\" alt=\"Regressie van hoofdcomponenten in Python\" width=\"424\" height=\"285\" srcset=\"\" sizes=\"auto, \"><\/h3>\n<p> <span style=\"color: #000000;\">De plot toont het aantal hoofdcomponenten langs de x-as en de MSE-test (mean square error) langs de y-as.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Uit de grafiek kunnen we zien dat de MSE van de test afneemt als we twee hoofdcomponenten toevoegen, maar begint te stijgen als we meer dan twee hoofdcomponenten toevoegen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het optimale model omvat dus alleen de eerste twee hoofdcomponenten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We kunnen ook de volgende code gebruiken om het variantiepercentage in de responsvariabele te berekenen, verklaard door elke hoofdcomponent aan het model toe te voegen:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong>n.p. <span style=\"color: #3366ff;\">cumsum<\/span> (np. <span style=\"color: #3366ff;\">round<\/span> (pca. <span style=\"color: #3366ff;\">explained_variance_ratio_<\/span> , decimals= <span style=\"color: #008000;\">4<\/span> )* <span style=\"color: #008000;\">100<\/span> )\n\narray([69.83, 89.35, 95.88, 98.95, 99.99])\n<\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">We kunnen het volgende zien:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Met alleen de eerste hoofdcomponent kunnen we <strong>69,83%<\/strong> van de variatie in de responsvariabele verklaren.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Door de tweede hoofdcomponent toe te voegen, kunnen we <strong>89,35%<\/strong> van de variatie in de responsvariabele verklaren.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Merk op dat we nog steeds meer variantie kunnen verklaren door meer hoofdcomponenten te gebruiken, maar we kunnen zien dat het toevoegen van meer dan twee hoofdcomponenten het percentage verklaarde variantie feitelijk niet veel verhoogt.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stap 4: Gebruik het definitieve model om voorspellingen te doen<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">We kunnen het laatste PCR-model met twee hoofdcomponenten gebruiken om voorspellingen te doen over nieuwe waarnemingen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De volgende code laat zien hoe u de oorspronkelijke gegevensset kunt opsplitsen in een trainings- en testset en hoe u het PCR-model met twee hoofdcomponenten kunt gebruiken om voorspellingen te doen over de testset.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#split the dataset into training (70%) and testing (30%) sets\n<\/span>X_train,X_test,y_train,y_test = <span style=\"color: #3366ff;\">train_test_split<\/span> (X,y,test_size= <span style=\"color: #008000;\">0.3<\/span> , random_state= <span style=\"color: #008000;\">0<\/span> ) \n\n<span style=\"color: #008080;\">#scale the training and testing data\n<\/span>X_reduced_train = pca. <span style=\"color: #3366ff;\">fit_transform<\/span> ( <span style=\"color: #3366ff;\">scale<\/span> (X_train))\nX_reduced_test = pca. <span style=\"color: #3366ff;\">transform<\/span> ( <span style=\"color: #3366ff;\">scale<\/span> (X_test))[:,:1]\n\n<span style=\"color: #008080;\">#train PCR model on training data \n<\/span>regr = LinearRegression()\nreg. <span style=\"color: #3366ff;\">fit<\/span> (X_reduced_train[:,:1], y_train)\n\n<span style=\"color: #008080;\">#calculate RMSE\n<\/span>pred = regr. <span style=\"color: #3366ff;\">predict<\/span> (X_reduced_test)\nn.p. <span style=\"color: #3366ff;\">sqrt<\/span> ( <span style=\"color: #3366ff;\">mean_squared_error<\/span> (y_test, pred))\n\n40.2096\n<\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">We zien dat de RMSE-test <strong>40.2096<\/strong> blijkt te zijn. Dit is de gemiddelde afwijking tussen de voorspelde <em>pk-<\/em> waarde en de waargenomen <em>pk-<\/em> waarde voor de waarnemingen van de testset.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De volledige Python-code die in dit voorbeeld wordt gebruikt, vindt u <a href=\"https:\/\/github.com\/Statorials\/Python-Guides\/blob\/main\/principal_components_regression.py\" target=\"_blank\" rel=\"noopener noreferrer\">hier<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Gegeven een reeks p- voorspellingsvariabelen en een responsvariabele, gebruikt meervoudige lineaire regressie een methode die bekend staat als de kleinste kwadraten om de resterende som van kwadraten (RSS) te minimaliseren: RSS = \u03a3(y i \u2013 \u0177 i ) 2 Goud: \u03a3 : Een Grieks symbool dat som betekent y i : de werkelijke responswaarde voor [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1206","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Regressie van hoofdcomponenten in Python (stap voor stap)<\/title>\n<meta name=\"description\" content=\"In deze tutorial wordt uitgelegd hoe u regressie van hoofdcomponenten in Python uitvoert, inclusief een stapsgewijs voorbeeld.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Regressie van hoofdcomponenten in Python (stap voor stap)\" \/>\n<meta property=\"og:description\" content=\"In deze tutorial wordt uitgelegd hoe u regressie van hoofdcomponenten in Python uitvoert, inclusief een stapsgewijs voorbeeld.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:20:18+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/pcrpython1.png\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"5\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/\",\"url\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/\",\"name\":\"Regressie van hoofdcomponenten in Python (stap voor stap)\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T07:20:18+00:00\",\"dateModified\":\"2023-07-27T07:20:18+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"In deze tutorial wordt uitgelegd hoe u regressie van hoofdcomponenten in Python uitvoert, inclusief een stapsgewijs voorbeeld.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Regressie van hoofdcomponenten in python (stap voor stap)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Regressie van hoofdcomponenten in Python (stap voor stap)","description":"In deze tutorial wordt uitgelegd hoe u regressie van hoofdcomponenten in Python uitvoert, inclusief een stapsgewijs voorbeeld.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/","og_locale":"de_DE","og_type":"article","og_title":"Regressie van hoofdcomponenten in Python (stap voor stap)","og_description":"In deze tutorial wordt uitgelegd hoe u regressie van hoofdcomponenten in Python uitvoert, inclusief een stapsgewijs voorbeeld.","og_url":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:20:18+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/pcrpython1.png"}],"author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"5\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/","url":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/","name":"Regressie van hoofdcomponenten in Python (stap voor stap)","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T07:20:18+00:00","dateModified":"2023-07-27T07:20:18+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"In deze tutorial wordt uitgelegd hoe u regressie van hoofdcomponenten in Python uitvoert, inclusief een stapsgewijs voorbeeld.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/hoofdcomponentenregressie-in-python\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Regressie van hoofdcomponenten in python (stap voor stap)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1206","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1206"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1206\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1206"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1206"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1206"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}