{"id":1149,"date":"2023-07-27T12:12:52","date_gmt":"2023-07-27T12:12:52","guid":{"rendered":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/"},"modified":"2023-07-27T12:12:52","modified_gmt":"2023-07-27T12:12:52","slug":"bias-variantie-compromis","status":"publish","type":"post","link":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/","title":{"rendered":"Wat is de afweging tussen bias en variantie bij machinaal leren?"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Om de prestaties van een model op een dataset te evalueren, moeten we meten hoe goed de voorspellingen van het model overeenkomen met de waargenomen gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Voor <a href=\"https:\/\/statorials.org\/nl\/regressie-versus-classificatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressiemodellen<\/a> is de meest gebruikte metriek de gemiddelde kwadratische fout (MSE), die als volgt wordt berekend:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = (1\/n)*\u03a3(y <sub>i<\/sub> \u2013 f(x <sub>i<\/sub> )) <sup>2<\/sup><\/span><\/p>\n<p> <span style=\"color: #000000;\">Goud:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> totaal aantal waarnemingen<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub> :<\/strong> De responswaarde van de <sup>i-de<\/sup> waarneming<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>f( <sub>xi<\/sub> ):<\/strong> De voorspelde responswaarde van de i- <sup>de<\/sup> waarneming<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Hoe dichter de modelvoorspellingen bij de waarnemingen liggen, hoe lager de MSE zal zijn.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het gaat ons echter alleen om <strong>de MSE-test<\/strong> \u2013 de MSE \u2013 als ons model wordt toegepast op onzichtbare gegevens. Dit komt omdat het ons alleen uitmaakt hoe het model zal presteren op onbekende gegevens, en niet op bestaande gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het is bijvoorbeeld prima als een model dat aandelenkoersen voorspelt een lage MSE heeft op basis van historische gegevens, maar we willen het model <em>echt<\/em> kunnen gebruiken om toekomstige gegevens nauwkeurig te voorspellen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Het blijkt dat de MSE-test nog steeds in twee delen kan worden opgesplitst:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Variantie:<\/strong> verwijst naar de mate waarin onze functie <em>f<\/em> zou veranderen als we deze schatten met behulp van een andere trainingsset.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Bias:<\/strong> verwijst naar de fout die wordt ge\u00efntroduceerd door een re\u00ebel probleem, dat extreem ingewikkeld kan zijn, te benaderen met een veel eenvoudiger model.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In wiskundige termen geschreven:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE-test = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE-test = Variantie + Bias <sup>2<\/sup> + Onherleidbare fout<\/span><\/p>\n<p> <span style=\"color: #000000;\">De derde term, de onherleidbare fout, is de fout die door geen enkel model kan worden verminderd, simpelweg omdat er altijd <em>ruis zit<\/em> in de relatie tussen de reeks verklarende variabelen en de <a href=\"https:\/\/statorials.org\/nl\/variabelen-verklarende-reacties\/\" target=\"_blank\" rel=\"noopener noreferrer\">responsvariabele<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Modellen met <strong>een hoge bias<\/strong> hebben doorgaans <strong>een lage variantie<\/strong> . Lineaire regressiemodellen hebben bijvoorbeeld de neiging een hoge bias te hebben (uitgaande van een eenvoudig lineair verband tussen de verklarende variabelen en de responsvariabele) en een lage variantie (de modelschattingen zullen van steekproef tot steekproef niet veel veranderen). de andere).<\/span><\/p>\n<p> <span style=\"color: #000000;\">Modellen met <strong>een lage bias<\/strong> hebben echter doorgaans <strong>een hoge variantie<\/strong> . Complexe niet-lineaire modellen hebben bijvoorbeeld de neiging een lage bias te hebben (ga niet uit van een bepaalde relatie tussen de verklarende variabelen en de responsvariabele) met een hoge variantie (modelschattingen kunnen aanzienlijk veranderen van de ene leersteekproef naar de andere).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>De afweging tussen bias en variantie<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\"><strong>De afruil tussen bias en variantie<\/strong> verwijst naar de afweging die plaatsvindt wanneer we ervoor kiezen om bias te verminderen, wat doorgaans de variantie vergroot, of om variantie te verminderen, wat doorgaans de bias vergroot.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De volgende grafiek biedt een manier om deze afweging te visualiseren:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11515 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" alt=\"Afweging van bias en variantie\" width=\"551\" height=\"400\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">De totale fout neemt af naarmate de complexiteit van een model toeneemt, maar slechts tot op zekere hoogte. Voorbij een bepaald punt begint de variantie toe te nemen en begint ook de totale fout toe te nemen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In de praktijk gaat het ons alleen om het minimaliseren van de totale fout van een model, en niet noodzakelijkerwijs om het minimaliseren van de variantie of vertekening.<\/span> <span style=\"color: #000000;\">Het blijkt dat de manier om de totale fout te minimaliseren het vinden van de juiste balans tussen variantie en vertekening is.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Met andere woorden: we willen een model dat complex genoeg is om de ware relatie tussen de verklarende variabelen en de responsvariabele vast te leggen, maar niet te complex om patronen te detecteren die in werkelijkheid niet bestaan.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wanneer een model te complex is, <a href=\"https:\/\/statorials.org\/nl\/overfitting-van-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>past<\/strong><\/a> het de gegevens te veel aan. Dit gebeurt omdat het te moeilijk is om patronen in de trainingsgegevens te vinden die eenvoudigweg door toeval worden veroorzaakt. Dit type model presteert waarschijnlijk slecht op onzichtbare gegevens.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Maar als een model te simpel is, <strong>onderschat<\/strong> het de gegevens. Dit gebeurt omdat wordt aangenomen dat de werkelijke relatie tussen de verklarende variabelen en de responsvariabele eenvoudiger is dan deze in werkelijkheid is.<\/span><\/p>\n<p> <span style=\"color: #000000;\">De manier om optimale modellen in machinaal leren te selecteren is door een balans te vinden tussen vertekening en variantie om de fout bij het testen van het model op toekomstige onzichtbare gegevens te minimaliseren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In de praktijk is de meest gebruikelijke manier om de MSE van tests te minimaliseren het gebruik <a href=\"https:\/\/statorials.org\/nl\/k-voudige-kruisvalidatie\/\" target=\"_blank\" rel=\"noopener noreferrer\">van kruisvalidatie<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Om de prestaties van een model op een dataset te evalueren, moeten we meten hoe goed de voorspellingen van het model overeenkomen met de waargenomen gegevens. Voor regressiemodellen is de meest gebruikte metriek de gemiddelde kwadratische fout (MSE), die als volgt wordt berekend: MSE = (1\/n)*\u03a3(y i \u2013 f(x i )) 2 Goud: n: totaal [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1149","post","type-post","status-publish","format-standard","hentry","category-gids"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Wat is de afweging tussen bias en variantie bij machinaal leren?<\/title>\n<meta name=\"description\" content=\"Deze tutorial biedt een uitleg van de afweging tussen bias en variantie bij machinaal leren, inclusief voorbeelden.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wat is de afweging tussen bias en variantie bij machinaal leren?\" \/>\n<meta property=\"og:description\" content=\"Deze tutorial biedt een uitleg van de afweging tussen bias en variantie bij machinaal leren, inclusief voorbeelden.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T12:12:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" \/>\n<meta name=\"author\" content=\"Dr.benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr.benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\",\"url\":\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\",\"name\":\"Wat is de afweging tussen bias en variantie bij machinaal leren?\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/nl\/#website\"},\"datePublished\":\"2023-07-27T12:12:52+00:00\",\"dateModified\":\"2023-07-27T12:12:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\"},\"description\":\"Deze tutorial biedt een uitleg van de afweging tussen bias en variantie bij machinaal leren, inclusief voorbeelden.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Thuis\",\"item\":\"https:\/\/statorials.org\/nl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wat is de afweging tussen bias en variantie bij machinaal leren?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/nl\/#website\",\"url\":\"https:\/\/statorials.org\/nl\/\",\"name\":\"Statorials\",\"description\":\"Uw gids voor statistische competentie\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/nl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219\",\"name\":\"Dr.benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/\",\"url\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr.benjamin anderson\"},\"description\":\"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder\",\"sameAs\":[\"http:\/\/statorials.org\/nl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wat is de afweging tussen bias en variantie bij machinaal leren?","description":"Deze tutorial biedt een uitleg van de afweging tussen bias en variantie bij machinaal leren, inclusief voorbeelden.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/","og_locale":"de_DE","og_type":"article","og_title":"Wat is de afweging tussen bias en variantie bij machinaal leren?","og_description":"Deze tutorial biedt een uitleg van de afweging tussen bias en variantie bij machinaal leren, inclusief voorbeelden.","og_url":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/","og_site_name":"Statorials","article_published_time":"2023-07-27T12:12:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png"}],"author":"Dr.benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr.benjamin anderson","Gesch\u00e4tzte Lesezeit":"3\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/","url":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/","name":"Wat is de afweging tussen bias en variantie bij machinaal leren?","isPartOf":{"@id":"https:\/\/statorials.org\/nl\/#website"},"datePublished":"2023-07-27T12:12:52+00:00","dateModified":"2023-07-27T12:12:52+00:00","author":{"@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219"},"description":"Deze tutorial biedt een uitleg van de afweging tussen bias en variantie bij machinaal leren, inclusief voorbeelden.","breadcrumb":{"@id":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/nl\/bias-variantie-compromis\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/nl\/bias-variantie-compromis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Thuis","item":"https:\/\/statorials.org\/nl\/"},{"@type":"ListItem","position":2,"name":"Wat is de afweging tussen bias en variantie bij machinaal leren?"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/nl\/#website","url":"https:\/\/statorials.org\/nl\/","name":"Statorials","description":"Uw gids voor statistische competentie","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/nl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/d4b8842173cca1bb62cdec41860e4219","name":"Dr.benjamin anderson","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/statorials.org\/nl\/#\/schema\/person\/image\/","url":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"http:\/\/statorials.org\/nl\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr.benjamin anderson"},"description":"Ik ben Benjamin, een gepensioneerde hoogleraar statistiek die nu een toegewijde Statorials-lesgever is. Ik heb uitgebreide ervaring en expertise op het gebied van statistiek en ik ben vastbesloten om mijn kennis te delen met studenten via Statorials. Lees verder","sameAs":["http:\/\/statorials.org\/nl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1149","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/comments?post=1149"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/posts\/1149\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/media?parent=1149"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/categories?post=1149"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/nl\/wp-json\/wp\/v2\/tags?post=1149"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}