{"id":1191,"date":"2023-07-27T08:26:08","date_gmt":"2023-07-27T08:26:08","guid":{"rendered":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/"},"modified":"2023-07-27T08:26:08","modified_gmt":"2023-07-27T08:26:08","slug":"ruckbildung-des-ruckens","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/","title":{"rendered":"Einf\u00fchrung in die ridge-regression"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Bei der gew\u00f6hnlichen <a href=\"https:\/\/statorials.org\/de\/multiple-lineare-regression\/\" target=\"_blank\" rel=\"noopener noreferrer\">multiplen linearen Regression<\/a> verwenden wir einen Satz von <em>p<\/em> Pr\u00e4diktorvariablen und eine <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariable,<\/a> um ein Modell der Form anzupassen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X <sub>1<\/sub> <sub>+<\/sub> \u03b2 <sub>2<\/sub> X <sub>2<\/sub> + \u2026 + \u03b2 <sub>p<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Gold:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Y<\/strong> : Die Antwortvariable<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>X <sub>j<\/sub><\/strong> : die j <sup>-te<\/sup> Vorhersagevariable<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b2 <sub>j<\/sub><\/strong> : Die durchschnittliche Auswirkung einer Erh\u00f6hung von X <sub>j<\/sub> um eine Einheit auf Y, wobei alle anderen Pr\u00e4diktoren unver\u00e4ndert bleiben<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b5<\/strong> : Der Fehlerterm<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Die Werte von \u03b2 <sub>0<\/sub> , \u03b2 <sub>1<\/sub> , B <sub>2<\/sub> , \u2026, \u03b2 <sub>p<\/sub> werden mit <strong>der Methode der kleinsten Quadrate<\/strong> ausgew\u00e4hlt, die die Summe der Quadrate der Residuen (RSS) minimiert:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Gold:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Ein griechisches Symbol f\u00fcr <em>Summe<\/em><\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : der tats\u00e4chliche Antwortwert f\u00fcr die <sup>i-te<\/sup> Beobachtung<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : Der vorhergesagte Antwortwert basierend auf dem multiplen linearen Regressionsmodell<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Wenn jedoch Pr\u00e4diktorvariablen stark korreliert sind, kann <a href=\"https:\/\/statorials.org\/de\/multikollinearitatsregression\/\" target=\"_blank\" rel=\"noopener noreferrer\">Multikollinearit\u00e4t<\/a> zu einem Problem werden. Dies kann dazu f\u00fchren, dass Modellkoeffizientensch\u00e4tzungen unzuverl\u00e4ssig werden und eine hohe Varianz aufweisen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine M\u00f6glichkeit, dieses Problem zu umgehen, ohne bestimmte Pr\u00e4diktorvariablen vollst\u00e4ndig aus dem Modell zu entfernen, besteht darin, eine Methode namens <strong>\u201eRidge-Regression\u201c<\/strong> zu verwenden, die stattdessen darauf abzielt, Folgendes zu minimieren:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">wobei <em>j<\/em> von 1 nach <em>p<\/em> geht und<\/span> <span style=\"color: #000000;\">\u03bb \u2265 0 ist.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dieser zweite Term in der Gleichung wird als <em>Auszahlungsstrafe<\/em> bezeichnet.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn \u03bb = 0, hat dieser Strafterm keine Auswirkung und die Ridge-Regression erzeugt die gleichen Koeffizientensch\u00e4tzungen wie die Methode der kleinsten Quadrate. Wenn sich \u03bb jedoch der Unendlichkeit n\u00e4hert, wird der Schrumpfungsnachteil st\u00e4rker und die Sch\u00e4tzungen des Spitzenregressionskoeffizienten n\u00e4hern sich Null.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Im Allgemeinen fallen die Pr\u00e4diktorvariablen mit dem geringsten Einfluss im Modell am schnellsten gegen Null.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Warum Ridge-Regression verwenden?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Der Vorteil der Ridge-Regression gegen\u00fcber der Regression der kleinsten Quadrate ist der <a href=\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\" target=\"_blank\" rel=\"noopener noreferrer\">Kompromiss zwischen Bias und Varianz<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Denken Sie daran, dass der mittlere quadratische Fehler (MSE) eine Metrik ist, mit der wir die Genauigkeit eines bestimmten Modells messen k\u00f6nnen. Er wird wie folgt berechnet:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Varianz + Bias <sup>2<\/sup> + Irreduzibler Fehler<\/span><\/p>\n<p> <span style=\"color: #000000;\">Die Grundidee der Ridge-Regression besteht darin, eine kleine Verzerrung einzuf\u00fchren, sodass die Varianz deutlich reduziert werden kann, was zu einem insgesamt niedrigeren MSE f\u00fchrt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Betrachten Sie zur Veranschaulichung die folgende Grafik:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11851 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" alt=\"Ridge-Regressions-Bias-Varianz-Kompromiss\" width=\"468\" height=\"341\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Beachten Sie, dass mit zunehmendem \u03bb die Varianz bei einem sehr geringen Anstieg der Vorspannung deutlich abnimmt. Ab einem bestimmten Punkt nimmt die Varianz jedoch weniger schnell ab und die Verringerung der Koeffizienten f\u00fchrt zu einer deutlichen Untersch\u00e4tzung derselben, was zu einem starken Anstieg der Verzerrung f\u00fchrt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aus der Grafik k\u00f6nnen wir ersehen, dass der MSE des Tests am niedrigsten ist, wenn wir einen Wert f\u00fcr \u03bb w\u00e4hlen, der einen optimalen Kompromiss zwischen Bias und Varianz ergibt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn \u03bb = 0, hat der Strafterm in der Ridge-Regression keine Auswirkung und erzeugt daher die gleichen Koeffizientensch\u00e4tzungen wie die Methode der kleinsten Quadrate. Durch Erh\u00f6hen von \u03bb auf einen bestimmten Punkt k\u00f6nnen wir jedoch den Gesamt-MSE des Tests reduzieren.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11852 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete2.png\" alt=\"Ridge-Regressionstest MSE-Reduktion\" width=\"529\" height=\"378\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Dies bedeutet, dass die Modellanpassung mittels Ridge-Regression kleinere Testfehler erzeugt als die Modellanpassung mittels Regression der kleinsten Quadrate.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Schritte zur Durchf\u00fchrung der Ridge-Regression in der Praxis<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Die folgenden Schritte k\u00f6nnen zur Durchf\u00fchrung einer Ridge-Regression verwendet werden:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Schritt 1: Berechnen Sie die Korrelationsmatrix und die VIF-Werte f\u00fcr die Pr\u00e4diktorvariablen.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Zuerst m\u00fcssen wir eine <a href=\"https:\/\/statorials.org\/de\/wie-man-eine-korrelationsmatrix-liest\/\" target=\"_blank\" rel=\"noopener noreferrer\">Korrelationsmatrix<\/a> erstellen und die <a href=\"https:\/\/statorials.org\/de\/multikollinearitatsregression\/\" target=\"_blank\" rel=\"noopener noreferrer\">VIF-Werte (Varianz-Inflationsfaktor)<\/a> f\u00fcr jede Pr\u00e4diktorvariable berechnen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn wir eine starke Korrelation zwischen den Pr\u00e4diktorvariablen und hohen VIF-Werten erkennen (einige Texte definieren einen \u201ehohen\u201c VIF-Wert als 5, w\u00e4hrend andere 10 verwenden), dann ist die Ridge-Regression wahrscheinlich angemessen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn die Daten jedoch keine Multikollinearit\u00e4t aufweisen, ist die Durchf\u00fchrung einer Ridge-Regression m\u00f6glicherweise \u00fcberhaupt nicht erforderlich. Stattdessen k\u00f6nnen wir eine gew\u00f6hnliche Regression der kleinsten Quadrate durchf\u00fchren.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Schritt 2: Standardisieren Sie jede Pr\u00e4diktorvariable.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Bevor wir eine Ridge-Regression durchf\u00fchren, m\u00fcssen wir die Daten so skalieren, dass jede Pr\u00e4diktorvariable einen Mittelwert von 0 und eine Standardabweichung von 1 hat. Dadurch wird sichergestellt, dass keine einzelne Pr\u00e4diktorvariable einen \u00fcberm\u00e4\u00dfigen Einfluss hat, wenn eine Ridge-Regression ausgef\u00fchrt wird.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Schritt 3: Passen Sie das Ridge-Regressionsmodell an und w\u00e4hlen Sie einen Wert f\u00fcr \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Es gibt keine genaue Formel, mit der wir bestimmen k\u00f6nnen, welcher Wert f\u00fcr \u03bb verwendet werden soll. In der Praxis gibt es zwei g\u00e4ngige M\u00f6glichkeiten, \u03bb zu w\u00e4hlen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Erstellen Sie ein Ridge-Trace-Diagramm.<\/strong> Dies ist ein Diagramm, das die Werte der Koeffizientensch\u00e4tzungen visualisiert, wenn \u03bb in Richtung Unendlich ansteigt. Normalerweise w\u00e4hlen wir \u03bb als den Wert, bei dem sich die meisten Koeffizientensch\u00e4tzungen zu stabilisieren beginnen.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11853 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete3.png\" alt=\"Gratspur\" width=\"539\" height=\"389\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Berechnen Sie den MSE-Test f\u00fcr jeden Wert von \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine andere M\u00f6glichkeit, \u03bb auszuw\u00e4hlen, besteht darin, einfach den Test-MSE jedes Modells mit unterschiedlichen Werten von \u03bb zu berechnen und \u03bb als den Wert zu w\u00e4hlen, der den niedrigsten Test-MSE erzeugt.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Vor- und Nachteile der Ridge-Regression<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Der gr\u00f6\u00dfte <strong>Vorteil<\/strong> der Ridge-Regression besteht darin, dass sie bei Vorliegen von Multikollinearit\u00e4t einen niedrigeren mittleren quadratischen Testfehler (MSE) als die Methode der kleinsten Quadrate erzeugen kann.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der gr\u00f6\u00dfte <strong>Nachteil<\/strong> der Ridge-Regression besteht jedoch darin, dass sie keine Variablenauswahl durchf\u00fchren kann, da sie alle Pr\u00e4diktorvariablen in das endg\u00fcltige Modell einbezieht. Da einige Pr\u00e4diktoren sehr nahe an Null reduziert werden, kann dies die Interpretation der Modellergebnisse erschweren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In der Praxis hat die Ridge-Regression das Potenzial, ein Modell zu erzeugen, das im Vergleich zu einem Modell der kleinsten Quadrate bessere Vorhersagen treffen kann, allerdings ist es oft schwieriger, die Ergebnisse des Modells zu interpretieren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je nachdem, ob Ihnen die Modellinterpretation oder die Prognosegenauigkeit wichtiger ist, k\u00f6nnen Sie in verschiedenen Szenarien die Methode der kleinsten Quadrate oder die Ridge-Regression verwenden.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Ridge-Regression in R &amp; Python<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In den folgenden Tutorials wird erl\u00e4utert, wie eine Ridge-Regression in R und Python durchgef\u00fchrt wird, den beiden am h\u00e4ufigsten verwendeten Sprachen zur Anpassung von Ridge-Regressionsmodellen:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/de\/kammregression-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge-Regression in R (Schritt f\u00fcr Schritt)<\/a><br \/> <a href=\"https:\/\/statorials.org\/de\/kammregression-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge-Regression in Python (Schritt f\u00fcr Schritt)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Bei der gew\u00f6hnlichen multiplen linearen Regression verwenden wir einen Satz von p Pr\u00e4diktorvariablen und eine Antwortvariable, um ein Modell der Form anzupassen: Y = \u03b2 0 + \u03b2 1 X 1 + \u03b2 2 X 2 + \u2026 + \u03b2 p Gold: Y : Die Antwortvariable X j : die j -te Vorhersagevariable \u03b2 j [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Einf\u00fchrung in die Ridge-Regression \u2013 Statorials<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet eine kurze Einf\u00fchrung in die Ridge-Regression, einschlie\u00dflich einer Erkl\u00e4rung und Beispielen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Einf\u00fchrung in die Ridge-Regression \u2013 Statorials\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet eine kurze Einf\u00fchrung in die Ridge-Regression, einschlie\u00dflich einer Erkl\u00e4rung und Beispielen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:26:08+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/\",\"url\":\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/\",\"name\":\"Einf\u00fchrung in die Ridge-Regression \u2013 Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T08:26:08+00:00\",\"dateModified\":\"2023-07-27T08:26:08+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet eine kurze Einf\u00fchrung in die Ridge-Regression, einschlie\u00dflich einer Erkl\u00e4rung und Beispielen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Einf\u00fchrung in die ridge-regression\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Einf\u00fchrung in die Ridge-Regression \u2013 Statorials","description":"Dieses Tutorial bietet eine kurze Einf\u00fchrung in die Ridge-Regression, einschlie\u00dflich einer Erkl\u00e4rung und Beispielen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/","og_locale":"de_DE","og_type":"article","og_title":"Einf\u00fchrung in die Ridge-Regression \u2013 Statorials","og_description":"Dieses Tutorial bietet eine kurze Einf\u00fchrung in die Ridge-Regression, einschlie\u00dflich einer Erkl\u00e4rung und Beispielen.","og_url":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:26:08+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png"}],"author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"5 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/","url":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/","name":"Einf\u00fchrung in die Ridge-Regression \u2013 Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T08:26:08+00:00","dateModified":"2023-07-27T08:26:08+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet eine kurze Einf\u00fchrung in die Ridge-Regression, einschlie\u00dflich einer Erkl\u00e4rung und Beispielen.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/ruckbildung-des-ruckens\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Einf\u00fchrung in die ridge-regression"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1191"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1191"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1191\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1191"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1191"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1191"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}