{"id":1164,"date":"2023-07-27T10:36:37","date_gmt":"2023-07-27T10:36:37","guid":{"rendered":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/"},"modified":"2023-07-27T10:36:37","modified_gmt":"2023-07-27T10:36:37","slug":"quadratische-diskriminanzanalyse","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/","title":{"rendered":"Einf\u00fchrung in die quadratische diskriminanzanalyse"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Wenn wir \u00fcber eine Reihe von Pr\u00e4diktorvariablen verf\u00fcgen und eine <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariable<\/a> in eine von zwei Klassen klassifizieren m\u00f6chten, verwenden wir im Allgemeinen <a href=\"https:\/\/statorials.org\/de\/logistische-regression-1\/\" target=\"_blank\" rel=\"noopener noreferrer\">die logistische Regression<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn eine Antwortvariable jedoch mehr als zwei m\u00f6gliche Klassen hat, verwenden wir im Allgemeinen <a href=\"https:\/\/statorials.org\/de\/lineare-diskriminanzanalyse\/\" target=\"_blank\" rel=\"noopener noreferrer\">die lineare Diskriminanzanalyse<\/a> , oft LDA genannt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">LDA geht davon aus, dass <strong>(1)<\/strong> die Beobachtungen in jeder Klasse<a href=\"https:\/\/statorials.org\/de\/die-normalverteilung\/\" target=\"_blank\" rel=\"noopener noreferrer\">normalverteilt<\/a> sind und <strong>(2)<\/strong> die Beobachtungen in jeder Klasse dieselbe Kovarianzmatrix aufweisen. Unter Verwendung dieser Annahmen ermittelt LDA dann die folgenden Werte:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03bc <sub>k<\/sub><\/strong> : Der Durchschnitt aller Trainingsbeobachtungen der k- <sup>ten<\/sup> Klasse.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c3 <sup>2<\/sup><\/strong> : Der gewichtete Durchschnitt der Stichprobenvarianzen f\u00fcr jede der <em>k<\/em> Klassen.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c0 <sub>k<\/sub><\/strong> : Der Anteil der Trainingsbeobachtungen, die zur k- <sup>ten<\/sup> Klasse geh\u00f6ren.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">LDA setzt diese Zahlen dann in die folgende Formel ein und ordnet jede Beobachtung X = x der Klasse zu, f\u00fcr die die Formel den gr\u00f6\u00dften Wert ergibt:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>d <sub>k<\/sub> (x) = x * (\u03bc <sub>k<\/sub> \/\u03c3 <sup>2<\/sup> ) \u2013 (\u03bc <sub>k<\/sub> <sup>2<\/sup> \/2\u03c3 <sup>2<\/sup> ) + log(\u03c0 <sub>k<\/sub> )<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">LDA hat <em>\u201elinear\u201c<\/em> im Namen, da der von der obigen Funktion erzeugte Wert aus dem Ergebnis <em>linearer Funktionen<\/em> von x stammt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine Erweiterung der linearen Diskriminanzanalyse ist <strong>die quadratische Diskriminanzanalyse<\/strong> , oft auch QDA genannt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Diese Methode \u00e4hnelt LDA und geht au\u00dferdem davon aus, dass die Beobachtungen jeder Klasse normalverteilt sind, geht jedoch nicht davon aus, dass jede Klasse dieselbe Kovarianzmatrix aufweist. Stattdessen geht QDA davon aus, dass jede Klasse ihre eigene Kovarianzmatrix hat.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Mit anderen Worten wird davon ausgegangen, dass eine Beobachtung der k- <sup>ten<\/sup> Klasse die Form X ~ N(\u03bc <sub>k<\/sub> , \u03a3 <sub>k<\/sub> ) hat.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Unter dieser Annahme ermittelt QDA dann die folgenden Werte:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03bc <sub>k<\/sub><\/strong> : Der Durchschnitt aller Trainingsbeobachtungen der <sup>k-ten<\/sup> Klasse.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03a3 <sub>k<\/sub> :<\/strong> Die Kovarianzmatrix der <sup>k-ten<\/sup> Klasse.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c0 <sub>k<\/sub><\/strong> : Der Anteil der Trainingsbeobachtungen, die zur k- <sup>ten<\/sup> Klasse geh\u00f6ren.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">QDA f\u00fcgt diese Zahlen dann in die folgende Formel ein und ordnet jede Beobachtung X = x der Klasse zu, f\u00fcr die die Formel den gr\u00f6\u00dften Wert liefert:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>D <sub>k<\/sub> (x) = -1\/2*(x-\u03bc <sub>k<\/sub> ) <sup>T<\/sup> \u03a3 <sub>k<\/sub> <sup>-1<\/sup> (x-\u03bc <sub>k<\/sub> ) \u2013 1\/2*log|\u03a3 <sub>k<\/sub> | + log( <sub>\u03c0k<\/sub> )<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Beachten Sie, dass der Name von QDA <em>\u201equadratic\u201c<\/em> enth\u00e4lt, da der von der obigen Funktion erzeugte Wert aus dem Ergebnis <em>quadratischer Funktionen<\/em> von x stammt.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>LDA vs. QDA: Wann man das eine oder das andere verwenden sollte<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Der Hauptunterschied zwischen LDA und QDA besteht darin, dass LDA davon ausgeht, dass jede Klasse eine gemeinsame Kovarianzmatrix hat, was es zu einem viel weniger flexiblen Klassifikator als QDA macht.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dies bedeutet grunds\u00e4tzlich, dass die Varianz gering ist, d. h., dass die Leistung bei unterschiedlichen Trainingsdatens\u00e4tzen gleich ist.<\/span> <span style=\"color: #000000;\">Der Nachteil besteht darin, dass LDA m\u00f6glicherweise unter <a href=\"https:\/\/statorials.org\/de\/bias-varianz-kompromiss\/\" target=\"_blank\" rel=\"noopener noreferrer\">einer hohen Verzerrung<\/a> leidet, wenn die Annahme, dass <em>K-<\/em> Klassen dieselbe Kovarianz aufweisen, falsch ist.<\/span><\/p>\n<p> <span style=\"color: #000000;\">QDA wird in den folgenden Situationen im Allgemeinen gegen\u00fcber LDA bevorzugt:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1)<\/strong> Der Trainingssatz ist gro\u00df.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2)<\/strong> Es ist unwahrscheinlich, dass <em>K-<\/em> Klassen eine gemeinsame Kovarianzmatrix haben.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn diese Bedingungen erf\u00fcllt sind, ist die Leistung von QDA tendenziell besser, da es flexibler ist und sich besser an die Daten anpassen kann.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>So bereiten Sie Daten f\u00fcr QDA vor<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Stellen Sie sicher, dass Ihre Daten die folgenden Anforderungen erf\u00fcllen, bevor Sie ein QDA-Modell darauf anwenden:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Die Antwortvariable ist kategorisch<\/strong> . QDA-Modelle sind f\u00fcr den Einsatz bei <a href=\"https:\/\/statorials.org\/de\/regression-vs.-klassifizierung\/\" target=\"_blank\" rel=\"noopener noreferrer\">Klassifizierungsproblemen<\/a> konzipiert, d. h. wenn die Antwortvariable in Klassen oder Kategorien eingeordnet werden kann.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Die Beobachtungen in jeder Klasse folgen einer Normalverteilung<\/strong> . \u00dcberpr\u00fcfen Sie zun\u00e4chst, ob die Werteverteilung in jeder Klasse ungef\u00e4hr normalverteilt ist. Wenn nicht, k\u00f6nnen Sie<a href=\"https:\/\/statorials.org\/de\/daten-in-r-umwandeln\/\" target=\"_blank\" rel=\"noopener noreferrer\">zun\u00e4chst die Daten transformieren,<\/a> um die Verteilung normaler zu gestalten.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Ber\u00fccksichtigen Sie extreme Ausrei\u00dfer.<\/strong> Stellen Sie sicher, dass der Datensatz auf extreme Ausrei\u00dfer \u00fcberpr\u00fcft wird, bevor Sie LDA anwenden. Normalerweise k\u00f6nnen Sie Ausrei\u00dfer visuell \u00fcberpr\u00fcfen, indem Sie einfach <a href=\"https:\/\/statorials.org\/de\/kastenschnurrhaare\/\" target=\"_blank\" rel=\"noopener noreferrer\">Boxplots<\/a> oder Streudiagramme verwenden.<\/span><\/p>\n<h3> <strong>QDA in R und Python<\/strong><\/h3>\n<p> Die folgenden Tutorials bieten Schritt-f\u00fcr-Schritt-Beispiele zur Durchf\u00fchrung einer quadratischen Diskriminanzanalyse in R und Python:<\/p>\n<p> <a href=\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Quadratische Diskriminanzanalyse in R (Schritt f\u00fcr Schritt)<\/a><br \/> <a href=\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Quadratische Diskriminanzanalyse in Python (Schritt f\u00fcr Schritt)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wenn wir \u00fcber eine Reihe von Pr\u00e4diktorvariablen verf\u00fcgen und eine Antwortvariable in eine von zwei Klassen klassifizieren m\u00f6chten, verwenden wir im Allgemeinen die logistische Regression . Wenn eine Antwortvariable jedoch mehr als zwei m\u00f6gliche Klassen hat, verwenden wir im Allgemeinen die lineare Diskriminanzanalyse , oft LDA genannt. LDA geht davon aus, dass (1) die Beobachtungen [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Einf\u00fchrung in die quadratische Diskriminanzanalyse \u2013 Statistik<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet eine Einf\u00fchrung in die quadratische Diskriminanzanalyse, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Einf\u00fchrung in die quadratische Diskriminanzanalyse \u2013 Statistik\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet eine Einf\u00fchrung in die quadratische Diskriminanzanalyse, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T10:36:37+00:00\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/\",\"url\":\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/\",\"name\":\"Einf\u00fchrung in die quadratische Diskriminanzanalyse \u2013 Statistik\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T10:36:37+00:00\",\"dateModified\":\"2023-07-27T10:36:37+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet eine Einf\u00fchrung in die quadratische Diskriminanzanalyse, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Einf\u00fchrung in die quadratische diskriminanzanalyse\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Einf\u00fchrung in die quadratische Diskriminanzanalyse \u2013 Statistik","description":"Dieses Tutorial bietet eine Einf\u00fchrung in die quadratische Diskriminanzanalyse, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/","og_locale":"de_DE","og_type":"article","og_title":"Einf\u00fchrung in die quadratische Diskriminanzanalyse \u2013 Statistik","og_description":"Dieses Tutorial bietet eine Einf\u00fchrung in die quadratische Diskriminanzanalyse, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.","og_url":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/","og_site_name":"Statorials","article_published_time":"2023-07-27T10:36:37+00:00","author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"3 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/","url":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/","name":"Einf\u00fchrung in die quadratische Diskriminanzanalyse \u2013 Statistik","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T10:36:37+00:00","dateModified":"2023-07-27T10:36:37+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet eine Einf\u00fchrung in die quadratische Diskriminanzanalyse, eine h\u00e4ufig verwendete Methode beim maschinellen Lernen.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/quadratische-diskriminanzanalyse\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Einf\u00fchrung in die quadratische diskriminanzanalyse"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1164"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1164"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1164\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1164"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1164"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1164"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}