{"id":1207,"date":"2023-07-27T07:03:03","date_gmt":"2023-07-27T07:03:03","guid":{"rendered":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/"},"modified":"2023-07-27T07:03:03","modified_gmt":"2023-07-27T07:03:03","slug":"partielle-kleinste-quadrate","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/","title":{"rendered":"Eine einf\u00fchrung in partielle kleinste quadrate"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Eines der h\u00e4ufigsten Probleme beim maschinellen Lernen ist <a href=\"https:\/\/statorials.org\/de\/multikollinearitatsregression\/\" target=\"_blank\" rel=\"noopener noreferrer\">die Multikollinearit\u00e4t<\/a> . Dies tritt auf, wenn zwei oder mehr Pr\u00e4diktorvariablen in einem Datensatz stark korrelieren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn dies geschieht, kann ein Modell m\u00f6glicherweise gut an einen Trainingsdatensatz angepasst werden, bei einem neuen Datensatz, den es noch nie gesehen hat, kann es jedoch eine schlechte Leistung erbringen, weil es <a href=\"https:\/\/statorials.org\/de\/uberanpassung-des-maschinellen-lernens\/\" target=\"_blank\" rel=\"noopener noreferrer\">zu stark an<\/a> den Trainingsdatensatz angepasst ist. Trainingsset.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine M\u00f6glichkeit, das Problem der Multikollinearit\u00e4t zu umgehen, besteht darin, <a href=\"https:\/\/statorials.org\/de\/hauptkomponentenregression\/\" target=\"_blank\" rel=\"noopener noreferrer\">die Hauptkomponentenregression<\/a> zu verwenden, die <em>M<\/em> lineare Kombinationen (sogenannte \u201eHauptkomponenten\u201c) der urspr\u00fcnglichen <em>p-<\/em> Pr\u00e4diktorvariablen berechnet und dann die Methode der kleinsten Quadrate verwendet, um ein Modell der linearen Regression mithilfe der Prinzipalregression anzupassen Komponenten als Pr\u00e4diktoren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der Nachteil der Hauptkomponentenregression (PCR) besteht darin, dass sie die <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariable<\/a> bei der Berechnung der Hauptkomponenten nicht ber\u00fccksichtigt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Stattdessen wird nur das Ausma\u00df der Varianz zwischen den von den Hauptkomponenten erfassten Pr\u00e4diktorvariablen ber\u00fccksichtigt. Aus diesem Grund ist es m\u00f6glich, dass in einigen F\u00e4llen die Hauptkomponenten mit den gr\u00f6\u00dften Abweichungen die Antwortvariable nicht gut vorhersagen k\u00f6nnen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine mit der PCR verwandte Technik ist als <strong>partielle kleinste Quadrate<\/strong> bekannt. \u00c4hnlich wie bei der PCR berechnet die partielle Methode der kleinsten Quadrate <em>M<\/em> lineare Kombinationen (sogenannte \u201ePLS-Komponenten\u201c) der urspr\u00fcnglichen <em>p-<\/em> Pr\u00e4diktorvariablen und verwendet die Methode der kleinsten Quadrate, um ein lineares Regressionsmodell unter Verwendung der PLS-Komponenten als Pr\u00e4diktoren anzupassen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aber im Gegensatz zur PCR versucht die partielle Methode der kleinsten Quadrate, lineare Kombinationen zu finden, die die Variation <em>sowohl<\/em> in der Antwortvariablen als auch in den Pr\u00e4diktorvariablen erkl\u00e4ren.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Schritte zur Durchf\u00fchrung partieller kleinster Quadrate<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In der Praxis werden die folgenden Schritte verwendet, um partielle kleinste Quadrate durchzuf\u00fchren.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong><\/span> <span style=\"color: #000000;\">Standardisieren Sie die Daten so, dass alle Pr\u00e4diktorvariablen und die Antwortvariable einen Mittelwert von 0 und eine Standardabweichung von 1 haben. Dadurch wird sichergestellt, dass jede Variable auf derselben Skala gemessen wird.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Berechnen Sie Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> als die <em>M<\/em> Linearkombinationen der urspr\u00fcnglichen <em>p-<\/em> Pr\u00e4diktoren.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Z<\/sub> <sub>m<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6<\/sub> <sub>jm<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Um Z <sub>1<\/sub> zu berechnen, setzen Sie \u03a6 <sub>j1<\/sub> gleich dem Koeffizienten der einfachen linearen Regression von Y auf X <sub>j<\/sub> ist die lineare Kombination von Pr\u00e4diktoren, die so viel Varianz wie m\u00f6glich erfasst.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Um Z <sub>2<\/sub> zu berechnen, f\u00fchren Sie f\u00fcr jede Variable eine Regression auf Z <sub>1<\/sub> durch und nehmen Sie die Residuen. Berechnen Sie dann Z <sub>2<\/sub> mithilfe dieser orthogonalisierten Daten auf genau die gleiche Weise, wie Z <sub>1<\/sub> berechnet wurde.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Wiederholen Sie diesen Vorgang <em>M<\/em> -mal, um <em>M<\/em> PLS-Komponenten zu erhalten.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Verwenden Sie die Methode der kleinsten Quadrate, um ein lineares Regressionsmodell unter Verwendung der PLS-Komponenten Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> als Pr\u00e4diktoren anzupassen.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>4.<\/strong> Verwenden Sie abschlie\u00dfend<\/span> <span style=\"color: #000000;\"><a href=\"https:\/\/statorials.org\/de\/k-fache-kreuzvalidierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">die k-fache Kreuzvalidierung,<\/a> um die optimale Anzahl von PLS-Komponenten zu ermitteln, die im Modell beibehalten werden sollen. Die \u201eoptimale\u201c Anzahl der zu behaltenden PLS-Komponenten ist im Allgemeinen die Zahl, die den niedrigsten mittleren quadratischen Testfehler (MSE) erzeugt.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Abschluss<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In F\u00e4llen, in denen Multikollinearit\u00e4t in einem Datensatz vorhanden ist, ist die partielle Regression der kleinsten Quadrate tendenziell besser als die normale Regression der kleinsten Quadrate. Es ist jedoch eine gute Idee, mehrere unterschiedliche Modelle anzupassen, damit Sie herausfinden k\u00f6nnen, welches sich am besten auf unbekannte Daten verallgemeinern l\u00e4sst.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In der Praxis passen wir viele verschiedene Modelltypen (PLS, <a href=\"https:\/\/statorials.org\/de\/hauptkomponentenregression\/\" target=\"_blank\" rel=\"noopener noreferrer\">PCR<\/a> , <a href=\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge<\/a> , <a href=\"https:\/\/statorials.org\/de\/lasso-regression\/\" target=\"_blank\" rel=\"noopener noreferrer\">Lasso<\/a> , <a href=\"https:\/\/statorials.org\/de\/multiple-lineare-regression\/\" target=\"_blank\" rel=\"noopener noreferrer\">Multiple Linear Regression<\/a> usw.) an einen Datensatz an und verwenden eine k-fache Kreuzvalidierung, um das Modell zu identifizieren, das den MSE-Test am besten liefert. niedriger auf neue Daten. .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Eines der h\u00e4ufigsten Probleme beim maschinellen Lernen ist die Multikollinearit\u00e4t . Dies tritt auf, wenn zwei oder mehr Pr\u00e4diktorvariablen in einem Datensatz stark korrelieren. Wenn dies geschieht, kann ein Modell m\u00f6glicherweise gut an einen Trainingsdatensatz angepasst werden, bei einem neuen Datensatz, den es noch nie gesehen hat, kann es jedoch eine schlechte Leistung erbringen, weil [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Eine Einf\u00fchrung in die partiellen kleinsten Quadrate \u2013 Statorials<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet eine Einf\u00fchrung in partielle kleinste Quadrate, eine g\u00e4ngige Dimensionsreduktionstechnik, die beim maschinellen Lernen verwendet wird.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Eine Einf\u00fchrung in die partiellen kleinsten Quadrate \u2013 Statorials\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet eine Einf\u00fchrung in partielle kleinste Quadrate, eine g\u00e4ngige Dimensionsreduktionstechnik, die beim maschinellen Lernen verwendet wird.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:03:03+00:00\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/\",\"url\":\"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/\",\"name\":\"Eine Einf\u00fchrung in die partiellen kleinsten Quadrate \u2013 Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T07:03:03+00:00\",\"dateModified\":\"2023-07-27T07:03:03+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet eine Einf\u00fchrung in partielle kleinste Quadrate, eine g\u00e4ngige Dimensionsreduktionstechnik, die beim maschinellen Lernen verwendet wird.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Eine einf\u00fchrung in partielle kleinste quadrate\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Eine Einf\u00fchrung in die partiellen kleinsten Quadrate \u2013 Statorials","description":"Dieses Tutorial bietet eine Einf\u00fchrung in partielle kleinste Quadrate, eine g\u00e4ngige Dimensionsreduktionstechnik, die beim maschinellen Lernen verwendet wird.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/","og_locale":"de_DE","og_type":"article","og_title":"Eine Einf\u00fchrung in die partiellen kleinsten Quadrate \u2013 Statorials","og_description":"Dieses Tutorial bietet eine Einf\u00fchrung in partielle kleinste Quadrate, eine g\u00e4ngige Dimensionsreduktionstechnik, die beim maschinellen Lernen verwendet wird.","og_url":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:03:03+00:00","author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"3 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/","url":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/","name":"Eine Einf\u00fchrung in die partiellen kleinsten Quadrate \u2013 Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T07:03:03+00:00","dateModified":"2023-07-27T07:03:03+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet eine Einf\u00fchrung in partielle kleinste Quadrate, eine g\u00e4ngige Dimensionsreduktionstechnik, die beim maschinellen Lernen verwendet wird.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/partielle-kleinste-quadrate\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Eine einf\u00fchrung in partielle kleinste quadrate"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1207"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1207"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1207\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1207"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1207"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1207"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}