{"id":1222,"date":"2023-07-27T05:47:13","date_gmt":"2023-07-27T05:47:13","guid":{"rendered":"https:\/\/statorials.org\/de\/zufallige-ubungen\/"},"modified":"2023-07-27T05:47:13","modified_gmt":"2023-07-27T05:47:13","slug":"zufallige-ubungen","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/zufallige-ubungen\/","title":{"rendered":"Eine einfache einf\u00fchrung in random forests"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Wenn die Beziehung zwischen einer Reihe von Pr\u00e4diktorvariablen und einer <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariablen<\/a> sehr komplex ist, verwenden wir h\u00e4ufig nichtlineare Methoden, um die Beziehung zwischen ihnen zu modellieren.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine dieser Methoden sind <a href=\"https:\/\/statorials.org\/de\/klassifizierungs-und-regressionsbaume\/\" target=\"_blank\" rel=\"noopener noreferrer\">Klassifizierungs- und Regressionsb\u00e4ume<\/a> (oft als CART abgek\u00fcrzt), die mithilfe einer Reihe von Pr\u00e4diktorvariablen <em>Entscheidungsb\u00e4ume<\/em> erstellen, die den Wert einer Antwortvariablen vorhersagen.<\/span> <\/p>\n<figure id=\"attachment_12094\" aria-describedby=\"caption-attachment-12094\" style=\"width: 453px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" loading=\"lazy\" class=\"wp-image-12094\" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" alt=\"\" width=\"453\" height=\"347\" srcset=\"\" sizes=\"\"><figcaption id=\"caption-attachment-12094\" class=\"wp-caption-text\"> <strong><span style=\"color: #000000;\">Beispiel eines Regressionsbaums, der jahrelange Erfahrung und durchschnittliche Homeruns nutzt, um das Gehalt eines professionellen Baseballspielers vorherzusagen.<\/span><\/strong><\/figcaption><\/figure>\n<p> <span style=\"color: #000000;\">Der Vorteil von Entscheidungsb\u00e4umen besteht darin, dass sie einfach zu interpretieren und zu visualisieren sind. Das Problem besteht darin, dass sie tendenziell unter <a href=\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\" target=\"_blank\" rel=\"noopener noreferrer\">einer hohen Varianz<\/a> leiden. Das hei\u00dft, wenn wir einen Datensatz in zwei H\u00e4lften aufteilen und einen Entscheidungsbaum auf beide H\u00e4lften anwenden, k\u00f6nnten die Ergebnisse sehr unterschiedlich ausfallen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine M\u00f6glichkeit, die Varianz von Entscheidungsb\u00e4umen zu reduzieren, ist die Verwendung einer Methode namens <a href=\"https:\/\/statorials.org\/de\/maschinelles-lernen-beim-absacken\/\" target=\"_blank\" rel=\"noopener noreferrer\">Bagging<\/a> , die wie folgt funktioniert:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Nehmen Sie <em>b<\/em> Bootstrapping-Beispiele aus dem Originaldatensatz.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Erstellen Sie einen Entscheidungsbaum f\u00fcr jedes Bootstrap-Beispiel.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Mitteln Sie die Vorhersagen jedes Baums, um ein endg\u00fcltiges Modell zu erhalten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der Vorteil dieses Ansatzes besteht darin, dass ein Clustermodell im Allgemeinen eine Verbesserung der Testfehlerrate im Vergleich zu einem einzelnen Entscheidungsbaum bietet.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der Nachteil besteht darin, dass Vorhersagen aus der Sammlung verpackter B\u00e4ume stark korrelieren k\u00f6nnen, wenn der Datensatz einen sehr starken Pr\u00e4diktor enth\u00e4lt.<\/span> <span style=\"color: #000000;\">In diesem Fall verwenden die meisten oder alle eingesackten B\u00e4ume diesen Pr\u00e4diktor f\u00fcr die erste Aufteilung, was zu B\u00e4umen f\u00fchrt, die einander \u00e4hnlich sind und stark korrelierte Vorhersagen aufweisen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn wir also die Vorhersagen jedes Baums mitteln, um zu einem endg\u00fcltigen Modell zu gelangen, ist es m\u00f6glich, dass dieses Modell die Varianz im Vergleich zu einem einzelnen Entscheidungsbaum nicht tats\u00e4chlich verringert.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine M\u00f6glichkeit, dieses Problem zu umgehen, ist die Verwendung einer Methode namens <strong>Random Forests<\/strong> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Was sind Zufallsw\u00e4lder?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">\u00c4hnlich wie beim Bagging entnehmen Random Forests auch Bootstrapping- <em>Stichproben<\/em> aus einem Originaldatensatz.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn jedoch f\u00fcr jede Bootstrap-Stichprobe ein Entscheidungsbaum erstellt wird, wird jedes Mal, wenn eine Aufteilung in einem Baum ber\u00fccksichtigt wird, nur eine Zufallsstichprobe von <em>m<\/em> Pr\u00e4diktoren als Kandidat f\u00fcr die Aufteilung auf den gesamten Satz von <em>p<\/em> Pr\u00e4diktoren betrachtet.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Hier ist die vollst\u00e4ndige Methode, mit der zuf\u00e4llige W\u00e4lder ein Modell erstellen:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Nehmen Sie <em>b<\/em> Bootstrapping-Beispiele aus dem Originaldatensatz.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Erstellen Sie einen Entscheidungsbaum f\u00fcr jedes Bootstrap-Beispiel.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Bei der Erstellung des Baums wird jedes Mal, wenn eine Aufteilung in Betracht gezogen wird, nur eine Zufallsstichprobe von <em>m<\/em> Pr\u00e4diktoren als Kandidaten f\u00fcr die Aufteilung aus dem gesamten Satz von <em>p<\/em> Pr\u00e4diktoren betrachtet.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Mitteln Sie die Vorhersagen jedes Baums, um ein endg\u00fcltiges Modell zu erhalten.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Mit dieser Methode wird die Sammlung von B\u00e4umen in einem zuf\u00e4lligen Wald im Vergleich zu B\u00e4umen, die durch Absacken erzeugt wurden, <strong>dekoriert<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn wir also die durchschnittlichen Vorhersagen jedes Baums verwenden, um zu einem endg\u00fcltigen Modell zu gelangen, weist dieses tendenziell eine geringere Variabilit\u00e4t auf und f\u00fchrt zu einer geringeren Testfehlerrate als ein verpacktes Modell.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Bei der Verwendung von Zufallsw\u00e4ldern betrachten wir im Allgemeinen die <em>m<\/em> = \u221a <em>p-<\/em> Pr\u00e4diktoren jedes Mal als Aufteilungskandidaten, wenn wir einen Entscheidungsbaum aufteilen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn wir beispielsweise insgesamt <em>p<\/em> = 16 Pr\u00e4diktoren in einem Datensatz haben, betrachten wir im Allgemeinen nur <em>m<\/em> = \u221a16 = 4 Pr\u00e4diktoren als potenzielle Kandidaten f\u00fcr jede Aufteilung.<\/span><\/p>\n<blockquote>\n<p> <span style=\"color: #000000;\"><strong>Technischer Hinweis:<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn wir <em>m<\/em> = <em>p<\/em> w\u00e4hlen (dh wir betrachten alle Pr\u00e4diktoren bei jeder Aufteilung als Kandidaten), ist dies interessanterweise einfach gleichbedeutend mit der Verwendung von Bagging.<\/span><\/p>\n<\/blockquote>\n<h3> <span style=\"color: #000000;\"><strong>Sch\u00e4tzung von Out-of-Bag-Fehlern<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">\u00c4hnlich wie beim Bagging k\u00f6nnen wir den Testfehler eines Random-Forest-Modells mithilfe <strong>der Out-of-Bag-Sch\u00e4tzung<\/strong> berechnen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Es kann gezeigt werden, dass jede Bootstrap-Stichprobe etwa 2\/3 der Beobachtungen aus dem Originaldatensatz enth\u00e4lt. Das verbleibende Drittel der Beobachtungen, die nicht zur Anpassung an den Baum verwendet werden, werden als <strong>Out-of-Bag-Beobachtungen (OOB)<\/strong> bezeichnet.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wir k\u00f6nnen den Wert der i-ten Beobachtung im Originaldatensatz vorhersagen, indem wir die durchschnittliche Vorhersage von jedem der B\u00e4ume nehmen, in denen diese Beobachtung OOB war.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Mit diesem Ansatz k\u00f6nnen wir eine Vorhersage f\u00fcr alle <em>n<\/em> Beobachtungen im Originaldatensatz treffen und so eine Fehlerrate berechnen, die eine g\u00fcltige Sch\u00e4tzung des Testfehlers darstellt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Der Vorteil dieses Ansatzes zur Sch\u00e4tzung von Testfehlern besteht darin, dass er viel schneller ist als <a href=\"https:\/\/statorials.org\/de\/k-fache-kreuzvalidierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">die k-fache Kreuzvalidierung<\/a> , insbesondere wenn der Datensatz gro\u00df ist.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong><span style=\"color: #000000;\">Die Vor- und Nachteile von Random Forests<\/span><\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Zuf\u00e4llige W\u00e4lder bieten folgende <strong>Vorteile<\/strong> :<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">In den meisten F\u00e4llen bieten Zufallsw\u00e4lder eine Verbesserung der Genauigkeit gegen\u00fcber verpackten Modellen und insbesondere gegen\u00fcber Einzelentscheidungsb\u00e4umen.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Zuf\u00e4llige W\u00e4lder sind robust gegen\u00fcber Ausrei\u00dfern.<\/span><\/li>\n<li> <span style=\"color: #000000;\">F\u00fcr die Verwendung zuf\u00e4lliger Gesamtstrukturen ist keine Vorverarbeitung erforderlich.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Allerdings haben Random Forests die <strong>folgenden potenziellen Nachteile:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Sie sind schwer zu interpretieren.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Die Nutzung gro\u00dfer Datenmengen kann rechenintensiv (also langsam) sein.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In der Praxis verwenden Datenwissenschaftler in der Regel Zufallsw\u00e4lder, um die Vorhersagegenauigkeit zu maximieren. Daher stellt die Tatsache, dass sie nicht leicht zu interpretieren sind, normalerweise kein Problem dar.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wenn die Beziehung zwischen einer Reihe von Pr\u00e4diktorvariablen und einer Antwortvariablen sehr komplex ist, verwenden wir h\u00e4ufig nichtlineare Methoden, um die Beziehung zwischen ihnen zu modellieren. Eine dieser Methoden sind Klassifizierungs- und Regressionsb\u00e4ume (oft als CART abgek\u00fcrzt), die mithilfe einer Reihe von Pr\u00e4diktorvariablen Entscheidungsb\u00e4ume erstellen, die den Wert einer Antwortvariablen vorhersagen. Beispiel eines Regressionsbaums, der [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Eine einfache Einf\u00fchrung in Random Forests<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet eine einfache Einf\u00fchrung in Random Forests, eine beliebte Methode beim maschinellen Lernen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/zufallige-ubungen\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Eine einfache Einf\u00fchrung in Random Forests\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet eine einfache Einf\u00fchrung in Random Forests, eine beliebte Methode beim maschinellen Lernen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/zufallige-ubungen\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T05:47:13+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/zufallige-ubungen\/\",\"url\":\"https:\/\/statorials.org\/de\/zufallige-ubungen\/\",\"name\":\"Eine einfache Einf\u00fchrung in Random Forests\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T05:47:13+00:00\",\"dateModified\":\"2023-07-27T05:47:13+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet eine einfache Einf\u00fchrung in Random Forests, eine beliebte Methode beim maschinellen Lernen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/zufallige-ubungen\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/zufallige-ubungen\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/zufallige-ubungen\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Eine einfache einf\u00fchrung in random forests\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Eine einfache Einf\u00fchrung in Random Forests","description":"Dieses Tutorial bietet eine einfache Einf\u00fchrung in Random Forests, eine beliebte Methode beim maschinellen Lernen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/zufallige-ubungen\/","og_locale":"de_DE","og_type":"article","og_title":"Eine einfache Einf\u00fchrung in Random Forests","og_description":"Dieses Tutorial bietet eine einfache Einf\u00fchrung in Random Forests, eine beliebte Methode beim maschinellen Lernen.","og_url":"https:\/\/statorials.org\/de\/zufallige-ubungen\/","og_site_name":"Statorials","article_published_time":"2023-07-27T05:47:13+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png"}],"author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"4 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/zufallige-ubungen\/","url":"https:\/\/statorials.org\/de\/zufallige-ubungen\/","name":"Eine einfache Einf\u00fchrung in Random Forests","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T05:47:13+00:00","dateModified":"2023-07-27T05:47:13+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet eine einfache Einf\u00fchrung in Random Forests, eine beliebte Methode beim maschinellen Lernen.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/zufallige-ubungen\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/zufallige-ubungen\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/zufallige-ubungen\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Eine einfache einf\u00fchrung in random forests"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1222"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1222"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1222\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1222"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1222"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1222"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}