{"id":1194,"date":"2023-07-27T08:19:55","date_gmt":"2023-07-27T08:19:55","guid":{"rendered":"https:\/\/statorials.org\/nl\/topregressie-in-r\/"},"modified":"2023-07-27T08:19:55","modified_gmt":"2023-07-27T08:19:55","slug":"topregressie-in-r","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/topregressie-in-r\/","title":{"rendered":"Ridge-regressie in r (stap voor stap)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\"><a href=\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge-regressie<\/a> is een methode die we kunnen gebruiken om een regressiemodel te fitten wanneer <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">multicollineariteit<\/a> in de gegevens aanwezig is.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In een notendop probeert regressie met de kleinste kwadraten co\u00ebffici\u00ebntschattingen te vinden die de resterende som van de kwadraten (RSS) minimaliseren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> )2<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Een Grieks symbool dat <em>som<\/em> betekent<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : de werkelijke responswaarde voor de <sup>i-de<\/sup> waarneming<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : De voorspelde responswaarde op basis van het meervoudige lineaire regressiemodel<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Omgekeerd probeert nokregressie het volgende te minimaliseren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">waarbij <em>j<\/em> van 1 naar <em>p<\/em> voorspellende variabelen gaat en \u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze tweede term in de vergelijking staat bekend als de <em>opnameboete<\/em> . Bij nokregressie selecteren we een waarde voor \u03bb die de laagst mogelijke MSE-test oplevert (gemiddelde kwadratische fout).<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze zelfstudie biedt een stapsgewijs voorbeeld van het uitvoeren van ridge-regressie in R.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stap 1: Gegevens laden<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Voor dit voorbeeld gebruiken we de ingebouwde dataset van R, genaamd <strong>mtcars<\/strong> . We zullen <strong>hp<\/strong> gebruiken als de responsvariabele en de volgende variabelen als voorspellers:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">mpg<\/span><\/li>\n<li> <span style=\"color: #000000;\">gewicht<\/span><\/li>\n<li> <span style=\"color: #000000;\">shit<\/span><\/li>\n<li> <span style=\"color: #000000;\">qsec<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Om ridge-regressie uit te voeren, zullen we functies uit het <strong>glmnet-<\/strong> pakket gebruiken. Dit pakket vereist dat de <a href=\"https:\/\/statorials.org\/nl\/variabelen-verklarende-reacties\/\" target=\"_blank\" rel=\"noopener noreferrer\">responsvariabele<\/a> een vector is en dat de set voorspellende variabelen van de klasse <strong>data.matrix<\/strong> is.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De volgende code laat zien hoe u onze gegevens kunt defini\u00ebren:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#define response variable<\/span>\ny &lt;- mtcars$hp\n\n<span style=\"color: #008080;\">#define matrix of predictor variables\n<\/span>x &lt;- data.matrix(mtcars[, c('mpg', 'wt', 'drat', 'qsec')])\n<\/strong><\/span><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Stap 2: Pas het Ridge Regressiemodel toe<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Vervolgens zullen we de functie <strong>glmnet()<\/strong> gebruiken om in het Ridge-regressiemodel te passen en <strong>alpha=0<\/strong> te specificeren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Houd er rekening mee dat het instellen van alfa op 1 gelijk is aan het gebruik van Lasso-regressie en het instellen van alfa op een waarde tussen 0 en 1 gelijk is aan het gebruik van een elastisch net.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Merk ook op dat nokregressie vereist dat de gegevens zodanig worden gestandaardiseerd dat elke voorspellende variabele een gemiddelde van 0 en een standaarddeviatie van 1 heeft.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Gelukkig doet <strong>glmnet()<\/strong> deze standaardisatie automatisch voor je. Als u de variabelen al hebt gestandaardiseerd, kunt u <strong>standardize=False<\/strong> opgeven.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\"><span style=\"color: #000000;\"><span style=\"color: #993300;\">library<\/span> (glmnet)<\/span>\n\n#fit ridge regression model\n<\/span>model &lt;- glmnet(x, y, alpha = <span style=\"color: #008000;\">0<\/span> )\n\n<span style=\"color: #008080;\">#view summary of model\n<\/span>summary(model)\n\n          Length Class Mode   \na0 100 -none- numeric\nbeta 400 dgCMatrix S4     \ndf 100 -none- numeric\ndim 2 -none- numeric\nlambda 100 -none- numeric\ndev.ratio 100 -none- numeric\nnulldev 1 -none- numeric\nnpasses 1 -none- numeric\njerr 1 -none- numeric\noffset 1 -none- logical\ncall 4 -none- call   \nnobs 1 -none- numeric\n<\/strong><\/span><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Stap 3: Kies een optimale waarde voor Lambda<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Vervolgens zullen we de lambdawaarde identificeren die de laagste testgemiddelde kwadratische fout (MSE) oplevert met behulp van <a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-voudige kruisvalidatie<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Gelukkig heeft <strong>glmnet<\/strong> de functie <strong>cv.glmnet()<\/strong> die automatisch k-voudige kruisvalidatie uitvoert met behulp van k = 10 keer.<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#perform k-fold cross-validation to find optimal lambda value\n<\/span>cv_model &lt;- cv. <span style=\"color: #3366ff;\">glmnet<\/span> (x, y, alpha = <span style=\"color: #008000;\">0<\/span> )\n\n<span style=\"color: #008080;\">#find optimal lambda value that minimizes test MSE\n<\/span>best_lambda &lt;- cv_model$ <span style=\"color: #3366ff;\">lambda<\/span> . <span style=\"color: #3366ff;\">min<\/span>\nbest_lambda\n\n[1] 10.04567\n\n<span style=\"color: #008080;\">#produce plot of test MSE by lambda value<\/span>\nplot(cv_model) \n<\/strong><\/span><\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11860 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/faiter1.png\" alt=\"kruisvalidatie voor nokregressie in R\" width=\"443\" height=\"426\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">De lambdawaarde die de MSE-test minimaliseert blijkt <strong>10,04567<\/strong> te zijn.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stap 4: Analyseer het uiteindelijke model<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Ten slotte kunnen we het uiteindelijke model analyseren dat wordt geproduceerd door de optimale lambdawaarde.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We kunnen de volgende code gebruiken om de co\u00ebffici\u00ebntschattingen voor dit model te verkrijgen:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#find coefficients of best model\n<\/span>best_model &lt;- glmnet(x, y, alpha = <span style=\"color: #008000;\">0<\/span> , lambda = best_lambda)\ncoef(best_model)\n\n5 x 1 sparse Matrix of class \"dgCMatrix\"\n                    s0\n(Intercept) 475.242646\nmpg -3.299732\nwt 19.431238\ndrat -1.222429\nqsec -17.949721<\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">We kunnen ook een Trace-plot maken om te visualiseren hoe de schattingen van de co\u00ebffici\u00ebnten zijn veranderd als gevolg van de toename van de lambda:<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#produce Ridge trace plot<\/span>\nplot(model, xvar = \" <span style=\"color: #008000;\">lambda<\/span> \")<\/strong><\/span> <\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11861 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/creter2.png\" alt=\"Ridgespoor in R\" width=\"419\" height=\"411\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Ten slotte kunnen we de <a href=\"https:\/\/statorials.org\/nl\/goede-r-kwadraatwaarde\/\" target=\"_blank\" rel=\"noopener noreferrer\">R-kwadraat van het model<\/a> berekenen op basis van de trainingsgegevens:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#use fitted best model to make predictions\n<\/span>y_predicted &lt;- <span style=\"color: #3366ff;\">predict<\/span> (model, s = best_lambda, newx = x)\n\n<span style=\"color: #008080;\">#find OHS and SSE<\/span>\nsst &lt;- <span style=\"color: #3366ff;\">sum<\/span> ((y - <span style=\"color: #3366ff;\">mean<\/span> (y))^2)\nsse &lt;- <span style=\"color: #3366ff;\">sum<\/span> ((y_predicted - y)^2)\n\n<span style=\"color: #008080;\">#find R-Squared\n<\/span>rsq &lt;- 1 - sse\/sst\nrsq\n\n[1] 0.7999513\n<\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">Het R-kwadraat blijkt <strong>0,7999513<\/strong> te zijn. Dat wil zeggen dat het beste model <strong>79,99%<\/strong> van de variatie in de responswaarden van de trainingsgegevens kon verklaren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De volledige R-code die in dit voorbeeld wordt gebruikt, vindt u <a href=\"https:\/\/github.com\/Statorials\/R-Guides\/blob\/main\/ridge_regression.R\" target=\"_blank\" rel=\"noopener noreferrer\">hier<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ridge-regressie is een methode die we kunnen gebruiken om een regressiemodel te fitten wanneer multicollineariteit in de gegevens aanwezig is. In een notendop probeert regressie met de kleinste kwadraten co\u00ebffici\u00ebntschattingen te vinden die de resterende som van de kwadraten (RSS) minimaliseren: RSS = \u03a3(y i \u2013 \u0177 i )2 Goud: \u03a3 : Een Grieks symbool [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1194","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Ridge-regressie in R (stap voor stap)<\/title>\n<meta name=\"description\" content=\"In deze zelfstudie wordt uitgelegd hoe u ridge-regressie in R uitvoert, inclusief een stapsgewijs voorbeeld.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/topregressie-in-r\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Ridge-regressie in R (stap voor stap)\" \/>\n<meta property=\"og:description\" content=\"In deze zelfstudie wordt uitgelegd hoe u ridge-regressie in R uitvoert, inclusief een stapsgewijs voorbeeld.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/topregressie-in-r\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:19:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/faiter1.png\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/topregressie-in-r\/\",\"url\":\"https:\/\/statorials.org\/nl\/topregressie-in-r\/\",\"name\":\"Ridge-regressie in R (stap voor stap)\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T08:19:55+00:00\",\"dateModified\":\"2023-07-27T08:19:55+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"In deze zelfstudie wordt uitgelegd hoe u ridge-regressie in R uitvoert, inclusief een stapsgewijs voorbeeld.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/topregressie-in-r\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/topregressie-in-r\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/topregressie-in-r\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Ridge-regressie in r (stap voor stap)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Ridge-regressie in R (stap voor stap)","description":"In deze zelfstudie wordt uitgelegd hoe u ridge-regressie in R uitvoert, inclusief een stapsgewijs voorbeeld.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/topregressie-in-r\/","og_locale":"de_DE","og_type":"article","og_title":"Ridge-regressie in R (stap voor stap)","og_description":"In deze zelfstudie wordt uitgelegd hoe u ridge-regressie in R uitvoert, inclusief een stapsgewijs voorbeeld.","og_url":"https:\/\/statorials.org\/nl\/topregressie-in-r\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:19:55+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/faiter1.png"}],"author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"3\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/topregressie-in-r\/","url":"https:\/\/statorials.org\/nl\/topregressie-in-r\/","name":"Ridge-regressie in R (stap voor stap)","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T08:19:55+00:00","dateModified":"2023-07-27T08:19:55+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"In deze zelfstudie wordt uitgelegd hoe u ridge-regressie in R uitvoert, inclusief een stapsgewijs voorbeeld.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/topregressie-in-r\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/topregressie-in-r\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/topregressie-in-r\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Ridge-regressie in r (stap voor stap)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1194","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1194"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1194\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1194"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1194"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1194"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}