{"id":1196,"date":"2023-07-27T08:09:52","date_gmt":"2023-07-27T08:09:52","guid":{"rendered":"https:\/\/statorials.org\/nl\/lasso-regressie\/"},"modified":"2023-07-27T08:09:52","modified_gmt":"2023-07-27T08:09:52","slug":"lasso-regressie","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/lasso-regressie\/","title":{"rendered":"Inleiding tot lasso-regressie"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Bij gewone <a href=\"https:\/\/statorials.org\/nl\/meerdere-lineaire-regressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">meervoudige lineaire regressie<\/a> gebruiken we een reeks <em>p-<\/em> voorspellingsvariabelen en een <a href=\"https:\/\/statorials.org\/nl\/variabelen-verklarende-reacties\/\" target=\"_blank\" rel=\"noopener noreferrer\">responsvariabele<\/a> om in een model van de vorm te passen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X <sub>1<\/sub> <sub>+<\/sub> \u03b2 <sub>2<\/sub> X <sub>2<\/sub> + \u2026 + \u03b2 <sub>p<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Y<\/strong> : De responsvariabele<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong><sub>Xj<\/sub><\/strong> : de j <sup>-de<\/sup> voorspellende variabele<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong><sub>\u03b2j<\/sub><\/strong> : Het gemiddelde effect op Y van een toename van \u00e9\u00e9n eenheid in <sub>Xj<\/sub> , waarbij alle andere voorspellers vast blijven<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b5<\/strong> : De foutterm<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">De waarden van \u03b2 <sub>0<\/sub> , \u03b2 <sub>1<\/sub> , B <sub>2<\/sub> , \u2026, \u03b2 <sub>p<\/sub> worden gekozen met behulp van <strong>de kleinste kwadratenmethode<\/strong> , die de som van de kwadraten van de residuen (RSS) minimaliseert:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Een Grieks symbool dat <em>som<\/em> betekent<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : de werkelijke responswaarde voor de <sup>i-de<\/sup> waarneming<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : De voorspelde responswaarde op basis van het meervoudige lineaire regressiemodel<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Wanneer voorspellende variabelen echter sterk gecorreleerd zijn, kan <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">multicollineariteit<\/a> een probleem worden. Dit kan schattingen van modelco\u00ebffici\u00ebnten onbetrouwbaar maken en een hoge variantie vertonen. Dat wil zeggen dat wanneer het model wordt toegepast op een nieuwe dataset die het nog nooit eerder heeft gezien, het waarschijnlijk slecht zal presteren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">E\u00e9n manier om dit probleem te omzeilen is door een methode te gebruiken die bekend staat als <strong>lasso regressie<\/strong> , die in plaats daarvan het volgende probeert te minimaliseren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3|\u03b2 <sub>j<\/sub> |<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">waarbij <em>j<\/em> van 1 naar <em>p<\/em> gaat en \u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Deze tweede term in de vergelijking staat bekend als de <em>opnameboete<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer \u03bb = 0 heeft deze strafterm geen effect en levert lasso-regressie dezelfde co\u00ebffici\u00ebntschattingen op als de kleinste kwadraten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Naarmate \u03bb echter de oneindigheid nadert, wordt de verwijderingsstraf invloedrijker en worden voorspellende variabelen die niet in het model ge\u00efmporteerd kunnen worden, tot nul teruggebracht en sommige zelfs uit het model verwijderd.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Waarom Lasso-regressie gebruiken?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Het voordeel van lasso-regressie ten opzichte van regressie met de kleinste kwadraten is de <a href=\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\" target=\"_blank\" rel=\"noopener noreferrer\">afweging tussen bias en variantie<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Bedenk dat Mean Square Error (MSE) een metriek is die we kunnen gebruiken om de nauwkeurigheid van een bepaald model te meten en die als volgt wordt berekend:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Variantie + Bias <sup>2<\/sup> + Onherleidbare fout<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het basisidee van lasso-regressie is om een kleine vertekening te introduceren, zodat de variantie aanzienlijk kan worden verminderd, wat leidt tot een lagere algehele MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Om dit te illustreren, bekijken we de volgende grafiek:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11851 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" alt=\"Ridge Regressie Bias-Variance-afweging\" width=\"468\" height=\"341\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Merk op dat naarmate \u03bb toeneemt, de variantie aanzienlijk afneemt met een zeer kleine toename van de bias. Vanaf een bepaald punt neemt de variantie echter minder snel af en leidt de afname van de co\u00ebffici\u00ebnten tot een significante onderschatting ervan, wat leidt tot een scherpe toename van de bias.<\/span><\/p>\n<p> <span style=\"color: #000000;\">We kunnen uit de grafiek zien dat de MSE van de test het laagst is als we een waarde voor \u03bb kiezen die een optimale afweging tussen vertekening en variantie oplevert.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer \u03bb = 0 heeft de strafterm bij lasso-regressie geen effect en levert daarom dezelfde co\u00ebffici\u00ebntschattingen op als de kleinste kwadraten. Door \u03bb echter tot een bepaald punt te verhogen, kunnen we de algehele MSE van de test verminderen.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11874 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/lasso1.png\" alt=\"Lasso-regressie-bias-variantie-afweging\" width=\"490\" height=\"357\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Dit betekent dat modelaanpassing door middel van lasso-regressie kleinere testfouten zal opleveren dan modelaanpassing door middel van kleinste-kwadratenregressie.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Lasso-regressie versus Ridge-regressie<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Lasso-regressie en <a href=\"https:\/\/statorials.org\/nl\/regressie-van-de-bergkam\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge-regressie<\/a> staan beide bekend als <em>regularisatiemethoden<\/em> omdat ze allebei proberen de resterende kwadratensom (RSS) en een bepaalde strafterm te minimaliseren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Met andere woorden, ze beperken of <em>regulariseren<\/em> de schattingen van de modelco\u00ebffici\u00ebnten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De strafvoorwaarden die zij gebruiken zijn echter iets anders:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Lasso-regressie probeert <strong>RSS + \u03bb\u03a3|\u03b2 <sub>j<\/sub> |<\/strong> te minimaliseren<\/span><\/li>\n<li> <span style=\"color: #000000;\">Ridge-regressie probeert <strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong> te minimaliseren<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Wanneer we ridge-regressie gebruiken, worden de co\u00ebffici\u00ebnten van elke voorspeller teruggebracht tot nul, maar geen enkele kan <em>volledig naar nul<\/em> gaan.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Omgekeerd, als we lasso-regressie gebruiken, is het mogelijk dat sommige co\u00ebffici\u00ebnten <em>volledig nul<\/em> worden als \u03bb groot genoeg wordt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In technische termen is lasso-regressie in staat \u2018sparse\u2019 modellen te produceren, dat wil zeggen modellen die slechts een subset van voorspellende variabelen bevatten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dit roept de vraag op: <strong>is ridge-regressie of lasso-regressie beter?<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Het antwoord: het hangt ervan af!<\/span><\/p>\n<p> <span style=\"color: #000000;\">In gevallen waarin slechts een klein aantal voorspellende variabelen significant is, werkt lasso-regressie doorgaans beter omdat het in staat is om onbelangrijke variabelen volledig tot nul terug te brengen en ze uit het model te verwijderen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer echter veel voorspellende variabelen significant zijn in het model en hun co\u00ebffici\u00ebnten ongeveer gelijk zijn, werkt nokregressie meestal beter omdat alle voorspellers in het model blijven.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Om te bepalen welk model het meest effectief is in het maken van voorspellingen, voeren we <a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-voudige kruisvalidatie<\/a> uit. Welk model ook de laagste gemiddelde kwadratische fout (MSE) oplevert, is het beste model om te gebruiken.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Stappen om een lasso-regressie in de praktijk uit te voeren<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">De volgende stappen kunnen worden gebruikt om een lasso-regressie uit te voeren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 1: Bereken de correlatiematrix en VIF-waarden voor de voorspellende variabelen.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Eerst moeten we een <a href=\"https:\/\/statorials.org\/nl\/hoe-een-correlatiematrix-te-lezen\/\" target=\"_blank\" rel=\"noopener noreferrer\">correlatiematrix<\/a> maken en de <a href=\"https:\/\/statorials.org\/nl\/multicollineariteitsregressie\/\" target=\"_blank\" rel=\"noopener noreferrer\">VIF-waarden (variantie-inflatiefactor)<\/a> voor elke voorspellende variabele berekenen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als we een sterke correlatie detecteren tussen de voorspellende variabelen en hoge VIF-waarden (sommige teksten defini\u00ebren een &#8222;hoge&#8220; VIF-waarde als 5, terwijl andere 10 gebruiken), dan is lasso-regressie waarschijnlijk geschikt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Als er echter geen multicollineariteit in de gegevens aanwezig is, is het wellicht niet nodig om lasso-regressie uit te voeren. In plaats daarvan kunnen we gewone regressie met de kleinste kwadraten uitvoeren.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 2: Pas het lasso-regressiemodel aan en kies een waarde voor \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Zodra we hebben vastgesteld dat lasso-regressie geschikt is, kunnen we het model aanpassen (met behulp van populaire programmeertalen zoals R of Python) met behulp van de optimale waarde voor \u03bb.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Om de optimale waarde voor \u03bb te bepalen, kunnen we meerdere modellen fitten met verschillende waarden voor \u03bb en \u03bb kiezen als de waarde die de laagste MSE-test oplevert.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Stap 3: Vergelijk lasso-regressie met ridge-regressie en gewone regressie met de kleinste kwadraten.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Ten slotte kunnen we ons lasso-regressiemodel vergelijken met een ridge-regressiemodel en een kleinste kwadraten-regressiemodel om te bepalen welk model de laagste MSE-test oplevert met behulp van k-voudige kruisvalidatie.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Afhankelijk van de relatie tussen de voorspellende variabelen en de responsvariabele is het heel goed mogelijk dat een van deze drie modellen in verschillende scenario&#8217;s beter presteert dan de andere.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Lasso-regressie in R &amp; Python<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In de volgende tutorials wordt uitgelegd hoe u lasso-regressie uitvoert in R en Python:<\/span><\/p>\n<p><a href=\"https:\/\/statorials.org\/nl\/lasso-regressie-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Lasso-regressie in R (stap voor stap)<\/a><br \/> <a href=\"https:\/\/statorials.org\/nl\/lasso-regressie-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Lasso-regressie in Python (stap voor stap)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Bij gewone meervoudige lineaire regressie gebruiken we een reeks p- voorspellingsvariabelen en een responsvariabele om in een model van de vorm te passen: Y = \u03b2 0 + \u03b2 1 X 1 + \u03b2 2 X 2 + \u2026 + \u03b2 p Goud: Y : De responsvariabele Xj : de j -de voorspellende variabele \u03b2j [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1196","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Inleiding tot Lasso-regressie - Statorials<\/title>\n<meta name=\"description\" content=\"Deze tutorial biedt een inleiding tot lasso-regressie, inclusief uitleg en voorbeelden.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/lasso-regressie\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Inleiding tot Lasso-regressie - Statorials\" \/>\n<meta property=\"og:description\" content=\"Deze tutorial biedt een inleiding tot lasso-regressie, inclusief uitleg en voorbeelden.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/lasso-regressie\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:09:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"5\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/lasso-regressie\/\",\"url\":\"https:\/\/statorials.org\/nl\/lasso-regressie\/\",\"name\":\"Inleiding tot Lasso-regressie - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T08:09:52+00:00\",\"dateModified\":\"2023-07-27T08:09:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"Deze tutorial biedt een inleiding tot lasso-regressie, inclusief uitleg en voorbeelden.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/lasso-regressie\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/lasso-regressie\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/lasso-regressie\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Inleiding tot lasso-regressie\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Inleiding tot Lasso-regressie - Statorials","description":"Deze tutorial biedt een inleiding tot lasso-regressie, inclusief uitleg en voorbeelden.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/lasso-regressie\/","og_locale":"de_DE","og_type":"article","og_title":"Inleiding tot Lasso-regressie - Statorials","og_description":"Deze tutorial biedt een inleiding tot lasso-regressie, inclusief uitleg en voorbeelden.","og_url":"https:\/\/statorials.org\/nl\/lasso-regressie\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:09:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png"}],"author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"5\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/lasso-regressie\/","url":"https:\/\/statorials.org\/nl\/lasso-regressie\/","name":"Inleiding tot Lasso-regressie - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T08:09:52+00:00","dateModified":"2023-07-27T08:09:52+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"Deze tutorial biedt een inleiding tot lasso-regressie, inclusief uitleg en voorbeelden.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/lasso-regressie\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/lasso-regressie\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/lasso-regressie\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Inleiding tot lasso-regressie"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1196","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1196"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1196\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1196"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1196"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1196"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}