{"id":1219,"date":"2023-07-27T06:00:40","date_gmt":"2023-07-27T06:00:40","guid":{"rendered":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/"},"modified":"2023-07-27T06:00:40","modified_gmt":"2023-07-27T06:00:40","slug":"maschinelles-lernen-beim-absacken","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/","title":{"rendered":"Eine einf\u00fchrung in das einpacken beim maschinellen lernen"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Wenn die Beziehung zwischen einer Reihe von Pr\u00e4diktorvariablen und einer <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariablen<\/a> linear ist, k\u00f6nnen wir Methoden wie die <a href=\"https:\/\/statorials.org\/de\/multiple-lineare-regression\/\" target=\"_blank\" rel=\"noopener noreferrer\">multiple lineare Regression<\/a> verwenden, um die Beziehung zwischen den Variablen zu modellieren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn die Beziehung jedoch komplexer ist, m\u00fcssen wir h\u00e4ufig auf nichtlineare Methoden zur\u00fcckgreifen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine dieser Methoden sind <a href=\"https:\/\/statorials.org\/de\/klassifizierungs-und-regressionsbaume\/\" target=\"_blank\" rel=\"noopener noreferrer\">Klassifizierungs- und Regressionsb\u00e4ume<\/a> (oft als CART abgek\u00fcrzt), die mithilfe einer Reihe von Pr\u00e4diktorvariablen <em>Entscheidungsb\u00e4ume<\/em> erstellen, die den Wert einer Antwortvariablen vorhersagen.<\/span> <\/p>\n<figure id=\"attachment_12094\" aria-describedby=\"caption-attachment-12094\" style=\"width: 453px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" loading=\"lazy\" class=\"wp-image-12094\" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" alt=\"\" width=\"453\" height=\"347\" srcset=\"\" sizes=\"\"><figcaption id=\"caption-attachment-12094\" class=\"wp-caption-text\"> <strong><span style=\"color: #000000;\">Beispiel eines Regressionsbaums, der jahrelange Erfahrung und durchschnittliche Homeruns nutzt, um das Gehalt eines professionellen Baseballspielers vorherzusagen.<\/span><\/strong><\/figcaption><\/figure>\n<p> <span style=\"color: #000000;\">Der Nachteil von CART-Modellen besteht jedoch darin, dass sie tendenziell unter <a href=\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\" target=\"_blank\" rel=\"noopener noreferrer\">einer hohen Varianz<\/a> leiden. Das hei\u00dft, wenn wir einen Datensatz in zwei H\u00e4lften aufteilen und einen Entscheidungsbaum auf beide H\u00e4lften anwenden, k\u00f6nnten die Ergebnisse sehr unterschiedlich ausfallen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine Methode, mit der wir die Varianz von CART-Modellen reduzieren k\u00f6nnen, ist das sogenannte <strong>Bagging<\/strong> , manchmal auch <em>Bootstrap-Aggregation<\/em> genannt.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Was ist Absacken?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Wenn wir einen einzelnen Entscheidungsbaum erstellen, verwenden wir nur einen Satz Trainingsdaten, um das Modell zu erstellen.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Beim Einpacken<\/strong> wird jedoch die folgende Methode verwendet:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Nehmen Sie <em>b<\/em> Bootstrapping-Beispiele aus dem Originaldatensatz.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Denken Sie daran, dass eine <em>Bootstrapping-Stichprobe<\/em> eine Stichprobe aus dem Originaldatensatz ist, in der Beobachtungen mit Ersetzung aufgenommen werden.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Erstellen Sie einen Entscheidungsbaum f\u00fcr jedes Bootstrap-Beispiel.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Mitteln Sie die Vorhersagen jedes Baums, um ein endg\u00fcltiges Modell zu erhalten.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">F\u00fcr Regressionsb\u00e4ume nehmen wir den Durchschnitt der Vorhersagen der <em>B-<\/em> B\u00e4ume.<\/span><\/li>\n<li> <span style=\"color: #000000;\">F\u00fcr Klassifizierungsb\u00e4ume verwenden wir die am h\u00e4ufigsten von <em>B<\/em> -B\u00e4umen gemachte Vorhersage.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Bagging kann mit jedem Algorithmus f\u00fcr maschinelles Lernen verwendet werden, ist jedoch besonders n\u00fctzlich f\u00fcr Entscheidungsb\u00e4ume, da diese von Natur aus eine hohe Varianz aufweisen und Bagging die Varianz erheblich reduzieren kann, was zu weniger Testfehlern f\u00fchrt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Um Entscheidungsb\u00e4ume mit Beuteln zu versehen, lassen wir einzelne B\u00e4ume in der Tiefe <em>wachsen<\/em> , ohne sie zu beschneiden. Dies f\u00fchrt zu einzelnen B\u00e4umen mit hoher Varianz, aber geringer Verzerrung. Wenn wir dann die durchschnittlichen Vorhersagen dieser B\u00e4ume heranziehen, k\u00f6nnen wir die Varianz reduzieren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In der Praxis wird die optimale Leistung normalerweise mit 50 bis 500 B\u00e4umen erreicht, es ist jedoch m\u00f6glich, Tausende von B\u00e4umen anzupassen, um ein endg\u00fcltiges Modell zu erstellen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Bedenken Sie jedoch, dass das Anpassen weiterer B\u00e4ume mehr Rechenleistung erfordert, was je nach Gr\u00f6\u00dfe des Datensatzes ein Problem darstellen kann oder auch nicht.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Sch\u00e4tzung von Out-of-Bag-Fehlern<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Es stellt sich heraus, dass wir den Testfehler eines verpackten Modells berechnen k\u00f6nnen, ohne uns auf <a href=\"https:\/\/statorials.org\/de\/k-fache-kreuzvalidierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">eine k-fache Kreuzvalidierung<\/a> zu verlassen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der Grund daf\u00fcr ist, dass jede Bootstrap-Stichprobe nachweislich etwa zwei Drittel der Beobachtungen aus dem Originaldatensatz enth\u00e4lt. Das verbleibende Drittel der Beobachtungen, die nicht zur Anpassung an den verpackten Baum verwendet werden, werden als <strong>Out-of-Bag-Beobachtungen (OOB)<\/strong> bezeichnet.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wir k\u00f6nnen den Wert der i-ten Beobachtung im Originaldatensatz vorhersagen, indem wir die durchschnittliche Vorhersage von jedem der B\u00e4ume nehmen, in denen diese Beobachtung OOB war.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Mit diesem Ansatz k\u00f6nnen wir eine Vorhersage f\u00fcr alle <em>n<\/em> Beobachtungen im Originaldatensatz treffen und so eine Fehlerrate berechnen, die eine g\u00fcltige Sch\u00e4tzung des Testfehlers darstellt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der Vorteil dieses Ansatzes zur Sch\u00e4tzung des Testfehlers besteht darin, dass er viel schneller ist als die k-fache Kreuzvalidierung, insbesondere wenn der Datensatz gro\u00df ist.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Die Bedeutung von Pr\u00e4diktoren verstehen<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Denken Sie daran, dass einer der Vorteile von Entscheidungsb\u00e4umen darin besteht, dass sie leicht zu interpretieren und zu visualisieren sind.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn wir stattdessen das Bagging verwenden, k\u00f6nnen wir einen einzelnen Baum nicht mehr interpretieren oder visualisieren, da das endg\u00fcltige Bagging-Modell das Ergebnis der Mittelung vieler verschiedener B\u00e4ume ist. Wir gewinnen an Vorhersagegenauigkeit auf Kosten der Interpretierbarkeit.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wir k\u00f6nnen jedoch immer noch die Bedeutung jeder Pr\u00e4diktorvariablen verstehen, indem wir die Gesamtreduzierung des RSS (Restsumme der Quadrate) aufgrund der Verteilung \u00fcber einen bestimmten Pr\u00e4diktor, gemittelt \u00fcber alle <em>B-<\/em> B\u00e4ume, berechnen. Je gr\u00f6\u00dfer der Wert, desto wichtiger ist der Pr\u00e4diktor.<\/span> <\/p>\n<figure id=\"attachment_12115\" aria-describedby=\"caption-attachment-12115\" style=\"width: 411px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" loading=\"lazy\" class=\"wp-image-12115\" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/sac1.png\" alt=\"Variable Wichtigkeitstabelle f\u00fcr das Absackmodell\" width=\"411\" height=\"380\" srcset=\"\" sizes=\"\"><figcaption id=\"caption-attachment-12115\" class=\"wp-caption-text\"> <span style=\"color: #000000;\"><strong>Beispiel f\u00fcr ein Variablenwichtigkeitsdiagramm.<\/strong><\/span><\/figcaption><\/figure>\n<p> <span style=\"color: #000000;\">In \u00e4hnlicher Weise k\u00f6nnen wir f\u00fcr Klassifizierungsmodelle die gesamte Reduzierung des Gini-Index aufgrund der Verteilung \u00fcber einen bestimmten Pr\u00e4diktor berechnen, gemittelt \u00fcber alle <em>B<\/em> -B\u00e4ume. Je gr\u00f6\u00dfer der Wert, desto wichtiger ist der Pr\u00e4diktor.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Auch wenn wir das endg\u00fcltige Gesamtmodell nicht genau interpretieren k\u00f6nnen, k\u00f6nnen wir uns dennoch ein Bild davon machen, wie wichtig jede Pr\u00e4diktorvariable bei der Vorhersage der Reaktion ist.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Gehen Sie \u00fcber das Einpacken hinaus<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Der Vorteil des Bagging besteht darin, dass es im Allgemeinen zu einer Verbesserung der Testfehlerrate im Vergleich zu einem einzelnen Entscheidungsbaum f\u00fchrt.<\/span><\/p>\n<p data-slot-rendered-dynamic=\"true\"> <span style=\"color: #000000;\">Der Nachteil besteht darin, dass Vorhersagen aus der Sammlung verpackter B\u00e4ume stark korrelieren k\u00f6nnen, wenn der Datensatz einen sehr starken Pr\u00e4diktor enth\u00e4lt.<\/span><\/p>\n<p data-slot-rendered-dynamic=\"true\"> <span style=\"color: #000000;\">In diesem Fall verwenden die meisten oder alle eingesackten B\u00e4ume diesen Pr\u00e4diktor f\u00fcr die erste Aufteilung, was zu B\u00e4umen f\u00fchrt, die einander \u00e4hnlich sind und stark korrelierte Vorhersagen aufweisen.<\/span><\/p>\n<p data-slot-rendered-dynamic=\"true\"> <span style=\"color: #000000;\">Eine M\u00f6glichkeit, dieses Problem zu umgehen, besteht darin, zuf\u00e4llige W\u00e4lder zu verwenden, die eine \u00e4hnliche Methode wie das Einsacken verwenden, aber in der Lage sind, dekorierte B\u00e4ume zu produzieren, was h\u00e4ufig zu geringeren Testfehlerraten f\u00fchrt.<\/span><\/p>\n<p data-slot-rendered-dynamic=\"true\"> <span style=\"color: #000000;\">Eine einfache Einf\u00fchrung in Random Forests k\u00f6nnen Sie <a href=\"https:\/\/statorials.org\/de\/zufallige-ubungen\/\" target=\"_blank\" rel=\"noopener noreferrer\">hier<\/a> lesen.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Zus\u00e4tzliche Ressourcen<\/strong><\/span><\/h3>\n<p> <a href=\"https:\/\/statorials.org\/de\/klassifizierungs-und-regressionsbaume\/\" target=\"_blank\" rel=\"noopener noreferrer\">Eine Einf\u00fchrung in Klassifizierungs- und Regressionsb\u00e4ume<\/a><br \/> <a href=\"https:\/\/statorials.org\/de\/einsacken-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">So f\u00fchren Sie das Bagging in R durch (Schritt f\u00fcr Schritt)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wenn die Beziehung zwischen einer Reihe von Pr\u00e4diktorvariablen und einer Antwortvariablen linear ist, k\u00f6nnen wir Methoden wie die multiple lineare Regression verwenden, um die Beziehung zwischen den Variablen zu modellieren. Wenn die Beziehung jedoch komplexer ist, m\u00fcssen wir h\u00e4ufig auf nichtlineare Methoden zur\u00fcckgreifen. Eine dieser Methoden sind Klassifizierungs- und Regressionsb\u00e4ume (oft als CART abgek\u00fcrzt), die [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Eine Einf\u00fchrung in das Bagging im maschinellen Lernen \u2013 Statorials<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet eine kurze Einf\u00fchrung in das Bagging, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Eine Einf\u00fchrung in das Bagging im maschinellen Lernen \u2013 Statorials\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet eine kurze Einf\u00fchrung in das Bagging, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T06:00:40+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/\",\"url\":\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/\",\"name\":\"Eine Einf\u00fchrung in das Bagging im maschinellen Lernen \u2013 Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T06:00:40+00:00\",\"dateModified\":\"2023-07-27T06:00:40+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet eine kurze Einf\u00fchrung in das Bagging, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Eine einf\u00fchrung in das einpacken beim maschinellen lernen\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Eine Einf\u00fchrung in das Bagging im maschinellen Lernen \u2013 Statorials","description":"Dieses Tutorial bietet eine kurze Einf\u00fchrung in das Bagging, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/","og_locale":"de_DE","og_type":"article","og_title":"Eine Einf\u00fchrung in das Bagging im maschinellen Lernen \u2013 Statorials","og_description":"Dieses Tutorial bietet eine kurze Einf\u00fchrung in das Bagging, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.","og_url":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/","og_site_name":"Statorials","article_published_time":"2023-07-27T06:00:40+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png"}],"author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"5 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/","url":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/","name":"Eine Einf\u00fchrung in das Bagging im maschinellen Lernen \u2013 Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T06:00:40+00:00","dateModified":"2023-07-27T06:00:40+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet eine kurze Einf\u00fchrung in das Bagging, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Eine einf\u00fchrung in das einpacken beim maschinellen lernen"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1219"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1219"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1219\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1219"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1219"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1219"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}