{"id":1179,"date":"2023-07-27T09:32:37","date_gmt":"2023-07-27T09:32:37","guid":{"rendered":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/"},"modified":"2023-07-27T09:32:37","modified_gmt":"2023-07-27T09:32:37","slug":"overfitting-van-machine-learning","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/","title":{"rendered":"Wat is overfitting in machine learning? (uitleg &amp; voorbeelden)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Bij machine learning bouwen we vaak modellen zodat we nauwkeurige voorspellingen kunnen doen over bepaalde fenomenen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Stel dat we bijvoorbeeld een <a href=\"https:\/\/statorials.org\/nl\/meerdere-lineaire-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressiemodel<\/a> willen maken dat gebruikmaakt van de voorspellende variabele <em>uren besteed aan studeren<\/em> om de <em>ACT-score<\/em> van de responsvariabele voor middelbare scholieren te voorspellen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Om dit model te bouwen, verzamelen we gegevens over de uren die aan studeren zijn besteed en de bijbehorende ACT-score voor honderden leerlingen in een bepaald schooldistrict.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze gegevens gaan we vervolgens gebruiken om een model te <em>trainen<\/em> dat voorspellingen kan doen over de score die een bepaalde leerling zal behalen op basis van het totaal aantal bestudeerde uren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Om de bruikbaarheid van het model te beoordelen, kunnen we meten hoe goed de voorspellingen van het model overeenkomen met de waargenomen gegevens. Een van de meest gebruikte maatstaven om dit te doen is de gemiddelde kwadratische fout (MSE), die als volgt wordt berekend:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = (1\/n)*\u03a3(y <sub>i<\/sub> \u2013 f(x <sub>i<\/sub> )) <sup>2<\/sup><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> totaal aantal waarnemingen<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub> :<\/strong> De responswaarde van de <sup>i-de<\/sup> waarneming<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>f( <sub>xi<\/sub> ):<\/strong> De voorspelde responswaarde van de i- <sup>de<\/sup> waarneming<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Hoe dichter de modelvoorspellingen bij de waarnemingen liggen, hoe lager de MSE zal zijn.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Een van de grootste fouten die bij machinaal leren worden gemaakt, is echter het optimaliseren van modellen om <strong>de training MSE<\/strong> te verminderen, dat wil zeggen hoe goed de modelvoorspellingen overeenkomen met de gegevens die we hebben gebruikt om het model te trainen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer een model zich te veel richt op het verminderen van de trainings-MSE, werkt het vaak te hard om patronen in de trainingsgegevens te vinden die eenvoudigweg door toeval worden veroorzaakt. Wanneer het model vervolgens wordt toegepast op onzichtbare gegevens, zijn de prestaties slecht.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit fenomeen staat bekend als <strong>overfitting<\/strong> . Dit gebeurt wanneer we een model te nauw \u2018passen\u2019 bij de trainingsgegevens en zo uiteindelijk een model bouwen dat niet bruikbaar is voor het doen van voorspellingen op basis van nieuwe gegevens.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Voorbeeld van overfitting<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Om overfitting te begrijpen, gaan we terug naar het voorbeeld van het maken van een regressiemodel dat <em>uren besteed aan studeren<\/em> gebruikt om <em>de ACT-score<\/em> te voorspellen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Laten we zeggen dat we gegevens verzamelen voor 100 leerlingen in een bepaald schooldistrict en een snelle spreidingsdiagram maken om de relatie tussen de twee variabelen te visualiseren:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11736 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage1.png\" alt=\"\" width=\"471\" height=\"443\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">De relatie tussen de twee variabelen lijkt kwadratisch te zijn, dus stel dat we het volgende kwadratische regressiemodel toepassen:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Score = 60,1 + 5,4*(uren) \u2013 0,2*(uren) <sup>2<\/sup><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11737 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage2.png\" alt=\"Overfitting in machine learning\" width=\"472\" height=\"444\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Dit model heeft een gemiddelde kwadratische fout (MSE) van <strong>3,45<\/strong> . Dat wil zeggen dat het wortelgemiddelde-kwadratenverschil tussen de voorspellingen van het model en de werkelijke ACT-scores 3,45 bedraagt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We zouden deze training-MSE echter kunnen verminderen door een polynoommodel van hogere orde toe te passen. Stel dat we bijvoorbeeld het volgende model toepassen:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Score = 64,3 \u2013 7,1*(Uren) + 8,1*(Uren) <sup>2<\/sup> \u2013 2,1*(Uren) <sup>3<\/sup> + 0,2*(Uren <sup>) 4 \u2013 0,1*(Uren) 5<\/sup> <sup>+<\/sup> 0,2(Uren) <sup>6<\/sup><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11738 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage3.png\" alt=\"Een model overdrijven\" width=\"511\" height=\"480\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Merk op dat de regressielijn veel beter bij de werkelijke gegevens past dan de vorige regressielijn.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit model heeft een training root mean square error (MSE) van slechts <strong>0,89<\/strong> . Dat wil zeggen dat het kwadratische wortelverschil tussen de voorspellingen van het model en de werkelijke ACT-scores 0,89 bedraagt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze MSE-training is veel kleiner dan die van het vorige model.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het maakt ons echter niet zoveel uit hoe goed de <strong>voorspellingen<\/strong> van het model overeenkomen met de gegevens die we hebben gebruikt om het model te trainen. In plaats daarvan geven we vooral om de <strong>MSE-test<\/strong> \u2013 de MSE wanneer ons model wordt toegepast op onzichtbare gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als we het bovenstaande polynomiale regressiemodel van hogere orde zouden toepassen op een onzichtbare dataset, zou het waarschijnlijk slechter presteren dan het eenvoudigere kwadratische regressiemodel. Dat wil zeggen, het zou een hogere MSE-test opleveren, en dat is precies wat we niet willen.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Hoe overfitting te detecteren en te voorkomen<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">De eenvoudigste manier om overfitting te detecteren is door kruisvalidatie uit te voeren. De meest gebruikte methode staat bekend als <a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-voudige kruisvalidatie<\/a> en werkt als volgt:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 1: Verdeel een dataset willekeurig in <em>k<\/em> groepen, of \u2018vouwen\u2019, van ongeveer gelijke grootte.<\/strong><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11712 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kfold1.png\" alt=\"Splits een dataset in k-vouwen\" width=\"530\" height=\"133\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 2: Kies een van de vouwen als uw holdingset. Pas de sjabloon aan de resterende k-1-vouwen aan. Bereken de MSE-proef op de waarnemingen in de gespannen lamel.<\/strong><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11713 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kfold2.png\" alt=\"k-voudige kruisvalidatie\" width=\"550\" height=\"174\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 3: Herhaal dit proces <em>k<\/em> keer, telkens met een andere set als uitsluitingsset.<\/strong><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11714 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kfold3.png\" alt=\"Voorbeeld van k-voudige kruisvalidatie\" width=\"618\" height=\"234\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 4: Bereken de totale MSE van de test als het gemiddelde van de <em>k<\/em> MSE&#8217;s van de test.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Test MSE = (1\/k)*\u03a3MSE <sub>i<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>k:<\/strong> Aantal vouwen<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>MSE <sub>i<\/sub><\/strong> : Test MSE bij de <sup>i-de<\/sup> iteratie<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Deze MSE-test geeft ons een goed beeld van hoe een bepaald model zal presteren op onbekende data.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In de praktijk kunnen we verschillende modellen passen en k-voudige kruisvalidatie uitvoeren op elk model om de MSE-test ervan te achterhalen. We kunnen dan het model met de laagste MSE-test kiezen als het beste model om voorspellingen in de toekomst te doen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit zorgt ervoor dat we een model selecteren dat waarschijnlijk het beste presteert op basis van toekomstige gegevens, in tegenstelling tot een model dat simpelweg de training MSE minimaliseert en goed \u2018past\u2019 bij historische gegevens.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Aanvullende bronnen<\/strong><\/span><\/h3>\n<p> <a href=\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\" target=\"_blank\" rel=\"noopener noreferrer\">Wat is de afweging tussen bias en variantie bij machinaal leren?<\/a><br \/> <a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Een inleiding tot K-fold kruisvalidatie<\/a><br \/> <a href=\"https:\/\/statorials.org\/nl\/regressie-versus-classificatie\/\">Regressie- en classificatiemodellen in machine learning<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Bij machine learning bouwen we vaak modellen zodat we nauwkeurige voorspellingen kunnen doen over bepaalde fenomenen. Stel dat we bijvoorbeeld een regressiemodel willen maken dat gebruikmaakt van de voorspellende variabele uren besteed aan studeren om de ACT-score van de responsvariabele voor middelbare scholieren te voorspellen. Om dit model te bouwen, verzamelen we gegevens over de [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1179","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Wat is overfitting in machine learning? (Uitleg en voorbeelden)<\/title>\n<meta name=\"description\" content=\"Deze tutorial geeft uitleg over overfitting in machine learning, inclusief verschillende voorbeelden en manieren om dit in de praktijk te voorkomen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wat is overfitting in machine learning? (Uitleg en voorbeelden)\" \/>\n<meta property=\"og:description\" content=\"Deze tutorial geeft uitleg over overfitting in machine learning, inclusief verschillende voorbeelden en manieren om dit in de praktijk te voorkomen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T09:32:37+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage1.png\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"4\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\",\"url\":\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\",\"name\":\"Wat is overfitting in machine learning? (Uitleg en voorbeelden)\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T09:32:37+00:00\",\"dateModified\":\"2023-07-27T09:32:37+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"Deze tutorial geeft uitleg over overfitting in machine learning, inclusief verschillende voorbeelden en manieren om dit in de praktijk te voorkomen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wat is overfitting in machine learning? (uitleg &amp; voorbeelden)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wat is overfitting in machine learning? (Uitleg en voorbeelden)","description":"Deze tutorial geeft uitleg over overfitting in machine learning, inclusief verschillende voorbeelden en manieren om dit in de praktijk te voorkomen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/","og_locale":"de_DE","og_type":"article","og_title":"Wat is overfitting in machine learning? (Uitleg en voorbeelden)","og_description":"Deze tutorial geeft uitleg over overfitting in machine learning, inclusief verschillende voorbeelden en manieren om dit in de praktijk te voorkomen.","og_url":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/","og_site_name":"Statorials","article_published_time":"2023-07-27T09:32:37+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage1.png"}],"author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"4\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/","url":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/","name":"Wat is overfitting in machine learning? (Uitleg en voorbeelden)","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T09:32:37+00:00","dateModified":"2023-07-27T09:32:37+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"Deze tutorial geeft uitleg over overfitting in machine learning, inclusief verschillende voorbeelden en manieren om dit in de praktijk te voorkomen.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Wat is overfitting in machine learning? (uitleg &amp; voorbeelden)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1179","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1179"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1179\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1179"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1179"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1179"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}