{"id":1147,"date":"2023-07-27T12:12:52","date_gmt":"2023-07-27T12:12:52","guid":{"rendered":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/"},"modified":"2023-07-27T12:12:52","modified_gmt":"2023-07-27T12:12:52","slug":"bias-varianz-kompromiss","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/","title":{"rendered":"Was ist der bias-varianz-kompromiss beim maschinellen lernen?"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Um die Leistung eines Modells anhand eines Datensatzes zu bewerten, m\u00fcssen wir messen, wie gut die Vorhersagen des Modells mit den beobachteten Daten \u00fcbereinstimmen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">F\u00fcr <a href=\"https:\/\/statorials.org\/de\/regression-vs.-klassifizierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressionsmodelle<\/a> ist die am h\u00e4ufigsten verwendete Metrik der mittlere quadratische Fehler (MSE), der wie folgt berechnet wird:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = (1\/n)*\u03a3(y <sub>i<\/sub> \u2013 f(x <sub>i<\/sub> )) <sup>2<\/sup><\/span><\/p>\n<p> <span style=\"color: #000000;\">Gold:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> Gesamtzahl der Beobachtungen<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub> :<\/strong> Der Antwortwert der <sup>i-ten<\/sup> Beobachtung<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>f( <sub>xi<\/sub> ):<\/strong> Der vorhergesagte Antwortwert der i- <sup>ten<\/sup> Beobachtung<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Je n\u00e4her die Modellvorhersagen an den Beobachtungen liegen, desto niedriger ist der MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wir k\u00fcmmern uns jedoch nur um <strong>den MSE-Test<\/strong> \u2013 den MSE, wenn unser Modell auf unsichtbare Daten angewendet wird. Dies liegt daran, dass uns nur die Leistung des Modells bei unbekannten Daten wichtig ist, nicht bei vorhandenen Daten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Es ist zum Beispiel in Ordnung, wenn ein Modell, das Aktienkurse vorhersagt, einen niedrigen MSE f\u00fcr historische Daten aufweist, wir m\u00f6chten das Modell jedoch <em>wirklich<\/em> verwenden k\u00f6nnen, um zuk\u00fcnftige Daten genau vorherzusagen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Es stellt sich heraus, dass der MSE-Test immer noch in zwei Teile unterteilt werden kann:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Varianz:<\/strong> bezieht sich auf den Betrag, um den sich unsere Funktion <em>f<\/em> \u00e4ndern w\u00fcrde, wenn wir sie mit einem anderen Trainingssatz sch\u00e4tzen w\u00fcrden.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Bias:<\/strong> bezieht sich auf den Fehler, der dadurch entsteht, dass ein reales Problem, das \u00e4u\u00dferst kompliziert sein kann, mit einem viel einfacheren Modell angegangen wird.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In mathematischen Begriffen geschrieben:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE-Test = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE-Test = Varianz + Bias <sup>2<\/sup> + irreduzibler Fehler<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der dritte Term, der irreduzible Fehler, ist der Fehler, der von keinem Modell reduziert werden kann, einfach weil die Beziehung zwischen dem Satz erkl\u00e4render Variablen und der <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariablen<\/a> immer <em>ein Rauschen<\/em> aufweist.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Modelle mit <strong>hoher Verzerrung<\/strong> weisen tendenziell <strong>eine geringe Varianz<\/strong> auf. Beispielsweise neigen lineare Regressionsmodelle zu einer hohen Verzerrung (unter der Annahme einer einfachen linearen Beziehung zwischen den erkl\u00e4renden Variablen und der Antwortvariablen) und einer geringen Varianz (die Modellsch\u00e4tzungen \u00e4ndern sich von Stichprobe zu Stichprobe nicht wesentlich). das andere).<\/span><\/p>\n<p> <span style=\"color: #000000;\">Allerdings weisen Modelle mit <strong>geringer Verzerrung<\/strong> tendenziell <strong>eine hohe Varianz<\/strong> auf. Beispielsweise neigen komplexe nichtlineare Modelle zu einer geringen Verzerrung (es wird keine bestimmte Beziehung zwischen den erkl\u00e4renden Variablen und der Antwortvariablen angenommen) und einer hohen Varianz (Modellsch\u00e4tzungen k\u00f6nnen sich von einer Lernstichprobe zur anderen erheblich \u00e4ndern).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Der Bias-Varianz-Kompromiss<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\"><strong>Der Kompromiss zwischen Bias und Varianz<\/strong> bezieht sich auf den Kompromiss, der stattfindet, wenn wir uns daf\u00fcr entscheiden, den Bias zu reduzieren, was im Allgemeinen die Varianz erh\u00f6ht, oder die Varianz zu verringern, was im Allgemeinen den Bias erh\u00f6ht.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Die folgende Grafik bietet eine M\u00f6glichkeit, diesen Kompromiss zu visualisieren:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11515 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" alt=\"Bias-Varianz-Kompromiss\" width=\"551\" height=\"400\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Der Gesamtfehler nimmt mit zunehmender Komplexit\u00e4t eines Modells ab, jedoch nur bis zu einem bestimmten Punkt. Ab einem bestimmten Punkt beginnt die Varianz zuzunehmen und auch der Gesamtfehler beginnt zuzunehmen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In der Praxis geht es uns nur um die Minimierung des Gesamtfehlers eines Modells, nicht unbedingt um die Minimierung der Varianz oder Verzerrung.<\/span> <span style=\"color: #000000;\">Es stellt sich heraus, dass der Weg zur Minimierung des Gesamtfehlers darin besteht, das richtige Gleichgewicht zwischen Varianz und Bias zu finden.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Mit anderen Worten: Wir wollen ein Modell, das komplex genug ist, um die wahre Beziehung zwischen den erkl\u00e4renden Variablen und der Antwortvariablen zu erfassen, aber nicht zu komplex, um Muster zu erkennen, die tats\u00e4chlich nicht existieren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn ein Modell zu komplex ist, <a href=\"https:\/\/statorials.org\/de\/uberanpassung-des-maschinellen-lernens\/\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>passt<\/strong><\/a> es die Daten zu stark an. Dies liegt daran, dass es zu schwierig ist, Muster in den Trainingsdaten zu finden, die einfach durch Zufall entstanden sind. Diese Art von Modell wird bei unsichtbaren Daten wahrscheinlich eine schlechte Leistung erbringen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn ein Modell jedoch zu einfach ist, <strong>untersch\u00e4tzt<\/strong> es die Daten. Dies geschieht, weil davon ausgegangen wird, dass die wahre Beziehung zwischen den erkl\u00e4renden Variablen und der Antwortvariablen einfacher ist, als sie tats\u00e4chlich ist.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der Weg zur Auswahl optimaler Modelle beim maschinellen Lernen besteht darin, ein Gleichgewicht zwischen Bias und Varianz zu finden, um den Fehler beim Testen des Modells anhand zuk\u00fcnftiger, unsichtbarer Daten zu minimieren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In der Praxis ist <a href=\"https:\/\/statorials.org\/de\/k-fache-kreuzvalidierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">die Kreuzvalidierung<\/a> die h\u00e4ufigste Methode zur Minimierung der MSE von Tests.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Um die Leistung eines Modells anhand eines Datensatzes zu bewerten, m\u00fcssen wir messen, wie gut die Vorhersagen des Modells mit den beobachteten Daten \u00fcbereinstimmen. F\u00fcr Regressionsmodelle ist die am h\u00e4ufigsten verwendete Metrik der mittlere quadratische Fehler (MSE), der wie folgt berechnet wird: MSE = (1\/n)*\u03a3(y i \u2013 f(x i )) 2 Gold: n: Gesamtzahl der [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Was ist der Bias-Varianz-Kompromiss beim maschinellen Lernen?<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet eine Erkl\u00e4rung des Bias-Varianz-Kompromisses beim maschinellen Lernen, einschlie\u00dflich Beispielen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Was ist der Bias-Varianz-Kompromiss beim maschinellen Lernen?\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet eine Erkl\u00e4rung des Bias-Varianz-Kompromisses beim maschinellen Lernen, einschlie\u00dflich Beispielen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T12:12:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\",\"url\":\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\",\"name\":\"Was ist der Bias-Varianz-Kompromiss beim maschinellen Lernen?\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T12:12:52+00:00\",\"dateModified\":\"2023-07-27T12:12:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet eine Erkl\u00e4rung des Bias-Varianz-Kompromisses beim maschinellen Lernen, einschlie\u00dflich Beispielen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Was ist der bias-varianz-kompromiss beim maschinellen lernen?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Was ist der Bias-Varianz-Kompromiss beim maschinellen Lernen?","description":"Dieses Tutorial bietet eine Erkl\u00e4rung des Bias-Varianz-Kompromisses beim maschinellen Lernen, einschlie\u00dflich Beispielen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/","og_locale":"de_DE","og_type":"article","og_title":"Was ist der Bias-Varianz-Kompromiss beim maschinellen Lernen?","og_description":"Dieses Tutorial bietet eine Erkl\u00e4rung des Bias-Varianz-Kompromisses beim maschinellen Lernen, einschlie\u00dflich Beispielen.","og_url":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/","og_site_name":"Statorials","article_published_time":"2023-07-27T12:12:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png"}],"author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"3 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/","url":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/","name":"Was ist der Bias-Varianz-Kompromiss beim maschinellen Lernen?","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T12:12:52+00:00","dateModified":"2023-07-27T12:12:52+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet eine Erkl\u00e4rung des Bias-Varianz-Kompromisses beim maschinellen Lernen, einschlie\u00dflich Beispielen.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Was ist der bias-varianz-kompromiss beim maschinellen lernen?"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1147"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1147"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1147\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1147"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1147"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1147"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}