{"id":1212,"date":"2023-07-27T06:38:25","date_gmt":"2023-07-27T06:38:25","guid":{"rendered":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/"},"modified":"2023-07-27T06:38:25","modified_gmt":"2023-07-27T06:38:25","slug":"multivariate-adaptive-regressionssplines","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/","title":{"rendered":"Eine einf\u00fchrung in multivariate adaptive regressionssplines"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Wenn die Beziehung zwischen einer Reihe von Pr\u00e4diktorvariablen und einer <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariablen<\/a> linear ist, k\u00f6nnen wir h\u00e4ufig <a href=\"https:\/\/statorials.org\/de\/multiple-lineare-regression\/\" target=\"_blank\" rel=\"noopener noreferrer\">die lineare Regression<\/a> verwenden, die<\/span> <span style=\"color: #000000;\">davon ausgeht, dass die Beziehung zwischen einer bestimmten Pr\u00e4diktorvariablen und einer Antwortvariablen die Form annimmt:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X + \u03b5<\/span><\/p>\n<p> <span style=\"color: #000000;\">In der Praxis kann die Beziehung zwischen Variablen jedoch tats\u00e4chlich nichtlinear sein, und der Versuch, eine lineare Regression zu verwenden, kann zu einem schlecht passenden Modell f\u00fchren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine M\u00f6glichkeit, eine nichtlineare Beziehung zwischen dem Pr\u00e4diktor und der Antwortvariablen zu ber\u00fccksichtigen, ist die Verwendung <a href=\"https:\/\/statorials.org\/de\/polynomielle-regression-1\/\" target=\"_blank\" rel=\"noopener noreferrer\">einer polynomialen Regression<\/a> , die folgende Form annimmt:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Y = \u03b2 <sub>0<\/sub> <sup>+<\/sup> \u03b2 <sub>1<\/sub> X + \u03b2 <sub>2<\/sub> X <sup>2<\/sup> + \u2026 + \u03b2 <sub>h<\/sub><\/span><\/p>\n<p> <span style=\"color: #000000;\">In dieser Gleichung wird <em>h<\/em> als \u201eGrad\u201c des Polynoms bezeichnet. Wenn wir den Wert von <em>h<\/em> erh\u00f6hen, wird das Modell flexibler und kann sich an nichtlineare Daten anpassen.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><span style=\"color: #000000;\">Die polynomielle Regression hat jedoch einige Nachteile:<\/span><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Bei der polynomialen Regression kann es leicht <a href=\"https:\/\/statorials.org\/de\/uberanpassung-des-maschinellen-lernens\/\" target=\"_blank\" rel=\"noopener noreferrer\">zu einer \u00dcberanpassung<\/a> eines Datensatzes kommen, wenn der Grad <em>h<\/em> zu gro\u00df gew\u00e4hlt wird. In der Praxis ist <em>h<\/em> selten gr\u00f6\u00dfer als 3 oder 4, da es jenseits dieses Punktes einfach dem Rauschen eines Trainingssatzes entspricht und sich nicht gut auf unsichtbare Daten verallgemeinern l\u00e4sst.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><b>2.<\/b> Die polynomielle Regression erlegt dem gesamten Datensatz eine globale Funktion auf, die nicht immer pr\u00e4zise ist.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine Alternative zur polynomialen Regression sind <strong>multivariate adaptive Regressionssplines<\/strong> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Die Grundidee<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Multivariate adaptive Regressions-Splines funktionieren wie folgt:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Teilen Sie einen Datensatz in <em>k<\/em> Teile.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Zun\u00e4chst teilen wir einen Datensatz in <em>k<\/em> verschiedene Elemente auf. Die Punkte, an denen wir den Datensatz teilen, werden <em>Knoten<\/em> genannt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wir identifizieren Knoten, indem wir jeden Punkt f\u00fcr jeden Pr\u00e4diktor als potenziellen Knoten bewerten und unter Verwendung der Kandidatenmerkmale ein lineares Regressionsmodell erstellen. Der Punkt, der die meisten Fehler im Modell reduzieren kann, ist der Knoten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Sobald wir den ersten Knoten identifiziert haben, wiederholen wir den Vorgang, um weitere Knoten zu finden. Sie k\u00f6nnen so viele Knoten finden, wie Sie zun\u00e4chst f\u00fcr sinnvoll halten.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Passen Sie an jedes Teil eine Regressionsfunktion an, um eine Scharnierfunktion zu bilden.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Sobald wir die Knoten ausgew\u00e4hlt und ein Regressionsmodell an jedes Element im Datensatz angepasst haben, erhalten wir eine sogenannte <em>Scharnierfunktion<\/em> , die mit <em>h(xa)<\/em> bezeichnet wird, wobei <em>a<\/em> der Schwellenwert f\u00fcr den Wert bzw. die Werte ist.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Die Scharnierfunktion f\u00fcr ein Ein-Knoten-Modell k\u00f6nnte beispielsweise wie folgt aussehen:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (4,3 \u2013 x), wenn x &lt; 4,3<\/span><\/li>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (x \u2013 4,3), wenn x &gt; 4,3<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In diesem Fall wurde festgestellt, dass die Wahl von <strong>4,3<\/strong> als Schwellenwert die maximale Fehlerreduzierung unter allen m\u00f6glichen Schwellenwerten erm\u00f6glichte. Anschlie\u00dfend passen wir ein anderes Regressionsmodell an Werte unter 4,3 im Vergleich zu Werten \u00fcber 4,3 an.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine Scharnierfunktion mit zwei Knoten kann wie folgt aussehen:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (4,3 \u2013 x), wenn x &lt; 4,3<\/span><\/li>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (x \u2013 4,3), wenn x &gt; 4,3 &amp; x &lt; 6,7<\/span><\/li>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (6,7 \u2013 x), wenn x &gt; 6,7<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In diesem Fall wurde festgestellt, dass die Wahl von <strong>4,3<\/strong> und <strong>6,7<\/strong> als Schwellenwerte die maximale Fehlerreduzierung unter allen m\u00f6glichen Schwellenwerten erm\u00f6glichte. Anschlie\u00dfend passen wir ein Regressionsmodell an Werte unter 4,3 an, ein anderes Regressionsmodell an Werte zwischen 4,3 und 6,7 und ein weiteres Regressionsmodell an Werte \u00fcber 4,3.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. W\u00e4hlen Sie <em>k<\/em> basierend auf der k-fachen Kreuzvalidierung.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nachdem wir schlie\u00dflich mehrere unterschiedliche Modelle mit einer unterschiedlichen Anzahl von Knoten f\u00fcr jedes Modell angepasst haben, k\u00f6nnen wir <a href=\"https:\/\/statorials.org\/de\/k-fache-kreuzvalidierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">eine k-fache Kreuzvalidierung<\/a> durchf\u00fchren, um das Modell zu identifizieren, das den niedrigsten mittleren quadratischen Testfehler (MSE) erzeugt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Das Modell mit dem niedrigsten MSE-Test wird als das Modell ausgew\u00e4hlt, das sich am besten auf die neuen Daten verallgemeinern l\u00e4sst.<\/span><\/p>\n<h3> <strong><span style=\"color: #000000;\">Vorteile und Nachteile<\/span><\/strong><\/h3>\n<p> <span style=\"color: #000000;\">Multivariate adaptive Regressionssplines haben die folgenden Vor- und Nachteile:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Vorteile<\/strong> :<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Es kann sowohl f\u00fcr <a href=\"https:\/\/statorials.org\/de\/regression-vs.-klassifizierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressions- als auch f\u00fcr Klassifizierungsprobleme<\/a> verwendet werden.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Dies funktioniert gut bei gro\u00dfen Datens\u00e4tzen.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Es bietet eine schnelle Berechnung.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Dies erfordert keine Standardisierung der Pr\u00e4diktorvariablen.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>Die Nachteile:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Es ist tendenziell nicht so leistungsf\u00e4hig wie nichtlineare Methoden wie Random Forests und Gradient Boosting-Maschinen.<\/span><\/li>\n<\/ul>\n<h3> <strong><span style=\"color: #000000;\">So passen Sie MARS-Modelle in R und Python an<\/span><\/strong><\/h3>\n<p> <span style=\"color: #000000;\">Die folgenden Tutorials bieten Schritt-f\u00fcr-Schritt-Beispiele f\u00fcr die Anpassung multivariater adaptiver Regressionssplines (MARS) in R und Python:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Multivariate adaptive Regressions-Splines in R<\/a><br \/> Multivariate adaptive Regressions-Splines in Python<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wenn die Beziehung zwischen einer Reihe von Pr\u00e4diktorvariablen und einer Antwortvariablen linear ist, k\u00f6nnen wir h\u00e4ufig die lineare Regression verwenden, die davon ausgeht, dass die Beziehung zwischen einer bestimmten Pr\u00e4diktorvariablen und einer Antwortvariablen die Form annimmt: Y = \u03b2 0 + \u03b2 1 X + \u03b5 In der Praxis kann die Beziehung zwischen Variablen jedoch [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Eine Einf\u00fchrung in multivariate adaptive Regressionssplines<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet eine Einf\u00fchrung in Multivariate Adaptive Regression Splines (MARS), eine g\u00e4ngige Regressionstechnik beim maschinellen Lernen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Eine Einf\u00fchrung in multivariate adaptive Regressionssplines\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet eine Einf\u00fchrung in Multivariate Adaptive Regression Splines (MARS), eine g\u00e4ngige Regressionstechnik beim maschinellen Lernen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T06:38:25+00:00\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/\",\"url\":\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/\",\"name\":\"Eine Einf\u00fchrung in multivariate adaptive Regressionssplines\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T06:38:25+00:00\",\"dateModified\":\"2023-07-27T06:38:25+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet eine Einf\u00fchrung in Multivariate Adaptive Regression Splines (MARS), eine g\u00e4ngige Regressionstechnik beim maschinellen Lernen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Eine einf\u00fchrung in multivariate adaptive regressionssplines\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Eine Einf\u00fchrung in multivariate adaptive Regressionssplines","description":"Dieses Tutorial bietet eine Einf\u00fchrung in Multivariate Adaptive Regression Splines (MARS), eine g\u00e4ngige Regressionstechnik beim maschinellen Lernen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/","og_locale":"de_DE","og_type":"article","og_title":"Eine Einf\u00fchrung in multivariate adaptive Regressionssplines","og_description":"Dieses Tutorial bietet eine Einf\u00fchrung in Multivariate Adaptive Regression Splines (MARS), eine g\u00e4ngige Regressionstechnik beim maschinellen Lernen.","og_url":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/","og_site_name":"Statorials","article_published_time":"2023-07-27T06:38:25+00:00","author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"3 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/","url":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/","name":"Eine Einf\u00fchrung in multivariate adaptive Regressionssplines","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T06:38:25+00:00","dateModified":"2023-07-27T06:38:25+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet eine Einf\u00fchrung in Multivariate Adaptive Regression Splines (MARS), eine g\u00e4ngige Regressionstechnik beim maschinellen Lernen.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/multivariate-adaptive-regressionssplines\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Eine einf\u00fchrung in multivariate adaptive regressionssplines"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1212"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1212"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1212\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1212"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1212"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1212"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}