{"id":1193,"date":"2023-07-27T08:26:08","date_gmt":"2023-07-27T08:26:08","guid":{"rendered":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/"},"modified":"2023-07-27T08:26:08","modified_gmt":"2023-07-27T08:26:08","slug":"regressie-van-de-bergkam","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/","title":{"rendered":"Inleiding tot ridge-regressie"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Bij gewone <a href=\"https:\/\/statorials.org\/nl\/meerdere-lineaire-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">meervoudige lineaire regressie<\/a> gebruiken we een reeks <em>p-<\/em> voorspellingsvariabelen en een <a href=\"https:\/\/statorials.org\/nl\/variabelen-verklarende-reacties\/\" target=\"_blank\" rel=\"noopener noreferrer\">responsvariabele<\/a> om in een model van de vorm te passen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X <sub>1<\/sub> <sub>+<\/sub> \u03b2 <sub>2<\/sub> X <sub>2<\/sub> + \u2026 + \u03b2 <sub>p<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Y<\/strong> : De responsvariabele<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong><sub>Xj<\/sub><\/strong> : de j <sup>-de<\/sup> voorspellende variabele<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong><sub>\u03b2j<\/sub><\/strong> : Het gemiddelde effect op Y van een toename van \u00e9\u00e9n eenheid in <sub>Xj<\/sub> , waarbij alle andere voorspellers vast blijven<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b5<\/strong> : De foutterm<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">De waarden van \u03b2 <sub>0<\/sub> , \u03b2 <sub>1<\/sub> , B <sub>2<\/sub> , \u2026, \u03b2 <sub>p<\/sub> worden gekozen met behulp van <strong>de kleinste kwadratenmethode<\/strong> , die de som van de kwadraten van de residuen (RSS) minimaliseert:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Een Grieks symbool dat <em>som<\/em> betekent<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : de werkelijke responswaarde voor de <sup>i-de<\/sup> waarneming<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : De voorspelde responswaarde op basis van het meervoudige lineaire regressiemodel<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Wanneer voorspellende variabelen echter sterk gecorreleerd zijn, kan <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">multicollineariteit<\/a> een probleem worden. Dit kan schattingen van modelco\u00ebffici\u00ebnten onbetrouwbaar maken en een hoge variantie vertonen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">E\u00e9n manier om dit probleem te omzeilen zonder bepaalde voorspellende variabelen volledig uit het model te verwijderen, is door een methode te gebruiken die bekend staat als <strong>ridge regressie<\/strong> , die in plaats daarvan het volgende probeert te minimaliseren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">waarbij <em>j<\/em> van 1 naar <em>p<\/em> gaat en<\/span> <span style=\"color: #000000;\">\u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze tweede term in de vergelijking staat bekend als de <em>opnameboete<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer \u03bb = 0 heeft deze strafterm geen effect en levert nokregressie dezelfde co\u00ebffici\u00ebntschattingen op als de kleinste kwadraten. Naarmate \u03bb het oneindige nadert, wordt de krimp echter steeds invloedrijker en naderen de schattingen van de piekregressieco\u00ebffici\u00ebnt nul.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Over het algemeen zullen de minst invloedrijke voorspellende variabelen in het model het snelst naar nul dalen.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Waarom Ridge-regressie gebruiken?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Het voordeel van Ridge-regressie ten opzichte van regressie met de kleinste kwadraten is de <a href=\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\" target=\"_blank\" rel=\"noopener noreferrer\">afweging tussen bias en variantie<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Bedenk dat Mean Square Error (MSE) een metriek is die we kunnen gebruiken om de nauwkeurigheid van een bepaald model te meten en die als volgt wordt berekend:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Variantie + Bias <sup>2<\/sup> + Onherleidbare fout<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het basisidee van Ridge-regressie is om een kleine vertekening te introduceren, zodat de variantie aanzienlijk kan worden verminderd, wat leidt tot een lagere algehele MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Om dit te illustreren, bekijken we de volgende grafiek:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11851 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" alt=\"Ridge Regressie Bias-Variance-afweging\" width=\"468\" height=\"341\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Merk op dat naarmate \u03bb toeneemt, de variantie aanzienlijk afneemt met een zeer kleine toename van de bias. Vanaf een bepaald punt neemt de variantie echter minder snel af en leidt de afname van de co\u00ebffici\u00ebnten tot een significante onderschatting ervan, wat leidt tot een scherpe toename van de bias.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We kunnen uit de grafiek zien dat de MSE van de test het laagst is als we een waarde voor \u03bb kiezen die een optimale afweging tussen vertekening en variantie oplevert.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer \u03bb = 0 heeft de strafterm in de nokregressie geen effect en levert daarom dezelfde co\u00ebffici\u00ebntschattingen op als de kleinste kwadraten. Door \u03bb echter tot een bepaald punt te verhogen, kunnen we de algehele MSE van de test verminderen.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11852 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete2.png\" alt=\"Ridge Regressietest MSE-reductie\" width=\"529\" height=\"378\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Dit betekent dat modelaanpassing door middel van ridge-regressie kleinere testfouten zal opleveren dan modelaanpassing door middel van kleinste-kwadratenregressie.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stappen om Ridge-regressie in de praktijk uit te voeren<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">De volgende stappen kunnen worden gebruikt om nokregressie uit te voeren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 1: Bereken de correlatiematrix en VIF-waarden voor de voorspellende variabelen.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Eerst moeten we een <a href=\"https:\/\/statorials.org\/nl\/hoe-een-correlatiematrix-te-lezen\/\" target=\"_blank\" rel=\"noopener noreferrer\">correlatiematrix<\/a> maken en de <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">VIF-waarden (variantie-inflatiefactor)<\/a> voor elke voorspellende variabele berekenen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als we een sterke correlatie detecteren tussen de voorspellende variabelen en hoge VIF-waarden (sommige teksten defini\u00ebren een &#8222;hoge&#8220; VIF-waarde als 5, terwijl andere 10 gebruiken), dan is randregressie waarschijnlijk geschikt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als er echter geen multicollineariteit in de gegevens aanwezig is, is het misschien niet nodig om ridge-regressie uit te voeren. In plaats daarvan kunnen we gewone regressie met de kleinste kwadraten uitvoeren.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 2: Standaardiseer elke voorspellende variabele.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Voordat we ridge-regressie uitvoeren, moeten we de gegevens zo schalen dat elke voorspellende variabele een gemiddelde van 0 en een standaarddeviatie van 1 heeft. Dit zorgt ervoor dat geen enkele voorspellende variabele een buitensporige invloed heeft bij het uitvoeren van een ridge-regressie.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 3: Pas het nokregressiemodel aan en kies een waarde voor \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Er is geen exacte formule die we kunnen gebruiken om te bepalen welke waarde we voor \u03bb moeten gebruiken. In de praktijk zijn er twee veel voorkomende manieren om \u03bb te kiezen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Maak een Ridge-traceerplot.<\/strong> Dit is een grafiek die de waarden van de co\u00ebffici\u00ebntschattingen visualiseert naarmate \u03bb toeneemt richting oneindig. Meestal kiezen we \u03bb als de waarde waarbij de meeste co\u00ebffici\u00ebntschattingen beginnen te stabiliseren.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11853 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete3.png\" alt=\"Ridge spoor\" width=\"539\" height=\"389\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Bereken de MSE-test voor elke waarde van \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Een andere manier om \u03bb te kiezen is door eenvoudigweg de test-MSE van elk model met verschillende waarden van \u03bb te berekenen en \u03bb te kiezen als de waarde die de laagste test-MSE oplevert.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Voor- en nadelen van Ridge-regressie<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Het grootste <strong>voordeel<\/strong> van Ridge-regressie is het vermogen om een lagere testgemiddelde kwadratenfout (MSE) te produceren dan de kleinste kwadraten wanneer multicollineariteit aanwezig is.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het grootste <strong>nadeel<\/strong> van Ridge-regressie is echter het onvermogen om variabelen te selecteren, aangezien alle voorspellende variabelen in het uiteindelijke model worden opgenomen. Omdat sommige voorspellers zeer dicht bij nul zullen worden teruggebracht, kan dit het moeilijk maken om de modelresultaten te interpreteren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In de praktijk heeft Ridge-regressie het potentieel om een model te produceren dat betere voorspellingen kan doen vergeleken met een kleinste-kwadratenmodel, maar het is vaak moeilijker om de resultaten van het model te interpreteren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Afhankelijk van of modelinterpretatie of voorspellingsnauwkeurigheid belangrijker voor u is, kunt u ervoor kiezen om in verschillende scenario&#8217;s gewone kleinste kwadraten of nokregressie te gebruiken.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Ridge-regressie in R &amp; Python<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In de volgende tutorials wordt uitgelegd hoe u ridge-regressie uitvoert in R en Python, de twee meest gebruikte talen voor het aanpassen van ridge-regressiemodellen:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/nl\/topregressie-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge-regressie in R (stap voor stap)<\/a><br \/> <a href=\"https:\/\/statorials.org\/nl\/crest-regressie-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge-regressie in Python (stap voor stap)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Bij gewone meervoudige lineaire regressie gebruiken we een reeks p- voorspellingsvariabelen en een responsvariabele om in een model van de vorm te passen: Y = \u03b2 0 + \u03b2 1 X 1 + \u03b2 2 X 2 + \u2026 + \u03b2 p Goud: Y : De responsvariabele Xj : de j -de voorspellende variabele \u03b2j [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1193","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Inleiding tot Ridge-regressie - Statorialen<\/title>\n<meta name=\"description\" content=\"Deze tutorial biedt een korte introductie tot ridge-regressie, inclusief uitleg en voorbeelden.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Inleiding tot Ridge-regressie - Statorialen\" \/>\n<meta property=\"og:description\" content=\"Deze tutorial biedt een korte introductie tot ridge-regressie, inclusief uitleg en voorbeelden.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:26:08+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"5\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\",\"url\":\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\",\"name\":\"Inleiding tot Ridge-regressie - Statorialen\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T08:26:08+00:00\",\"dateModified\":\"2023-07-27T08:26:08+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"Deze tutorial biedt een korte introductie tot ridge-regressie, inclusief uitleg en voorbeelden.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Inleiding tot ridge-regressie\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Inleiding tot Ridge-regressie - Statorialen","description":"Deze tutorial biedt een korte introductie tot ridge-regressie, inclusief uitleg en voorbeelden.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/","og_locale":"de_DE","og_type":"article","og_title":"Inleiding tot Ridge-regressie - Statorialen","og_description":"Deze tutorial biedt een korte introductie tot ridge-regressie, inclusief uitleg en voorbeelden.","og_url":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:26:08+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png"}],"author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"5\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/","url":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/","name":"Inleiding tot Ridge-regressie - Statorialen","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T08:26:08+00:00","dateModified":"2023-07-27T08:26:08+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"Deze tutorial biedt een korte introductie tot ridge-regressie, inclusief uitleg en voorbeelden.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Inleiding tot ridge-regressie"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1193","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1193"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1193\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1193"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1193"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1193"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}