{"id":1166,"date":"2023-07-27T10:36:37","date_gmt":"2023-07-27T10:36:37","guid":{"rendered":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/"},"modified":"2023-07-27T10:36:37","modified_gmt":"2023-07-27T10:36:37","slug":"analisi-discriminante-quadratica","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/","title":{"rendered":"Introduzione all&#39;analisi discriminante quadratica"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Quando disponiamo di un insieme di variabili predittive e vogliamo classificare una <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> in una delle due classi, generalmente utilizziamo <a href=\"https:\/\/statorials.org\/it\/regressione-logistica-1\/\" target=\"_blank\" rel=\"noopener noreferrer\">la regressione logistica<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, quando una variabile di risposta ha pi\u00f9 di due classi possibili, generalmente utilizziamo <a href=\"https:\/\/statorials.org\/it\/analisi-discriminante-lineare\/\" target=\"_blank\" rel=\"noopener noreferrer\">l&#8217;analisi discriminante lineare<\/a> , spesso chiamata LDA.<\/span><\/p>\n<p> <span style=\"color: #000000;\">L&#8217;LDA presuppone che <strong>(1)<\/strong> le osservazioni in ciascuna classe siano <a href=\"https:\/\/statorials.org\/it\/la-distribuzione-normale\/\" target=\"_blank\" rel=\"noopener noreferrer\">distribuite normalmente<\/a> e <strong>(2)<\/strong> le osservazioni in ciascuna classe condividano la stessa matrice di covarianza. Utilizzando questi presupposti, LDA trova quindi i seguenti valori:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03bc <sub>k<\/sub><\/strong> : La media di tutte le osservazioni di allenamento della classe k <sup>-esima<\/sup> .<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c3 <sup>2<\/sup><\/strong> : La media ponderata delle varianze campionarie per ciascuna delle <em>k<\/em> classi.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c0 <sub>k<\/sub><\/strong> : La proporzione di osservazioni di addestramento che appartengono alla k- <sup>esima<\/sup> classe.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">LDA inserisce quindi questi numeri nella formula seguente e assegna ciascuna osservazione X = x alla classe per la quale la formula produce il valore pi\u00f9 grande:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>d <sub>k<\/sub> (x) = x * (\u03bc <sub>k<\/sub> \/\u03c3 <sup>2<\/sup> ) \u2013 (\u03bc <sub>k<\/sub> <sup>2<\/sup> \/2\u03c3 <sup>2<\/sup> ) + log(\u03c0 <sub>k<\/sub> )<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">LDA ha <em>lineare<\/em> nel suo nome perch\u00e9 il valore prodotto dalla funzione di cui sopra deriva dal risultato di <em>funzioni lineari<\/em> di x.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un&#8217;estensione dell&#8217;analisi discriminante lineare \u00e8 <strong>l&#8217;analisi discriminante quadratica<\/strong> , spesso chiamata QDA.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo metodo \u00e8 simile all&#8217;LDA e presuppone inoltre che le osservazioni di ciascuna classe siano distribuite normalmente, ma non presuppone che ciascuna classe condivida la stessa matrice di covarianza. Invece, QDA presuppone che ciascuna classe abbia la propria matrice di covarianza.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In altre parole, si presuppone che un&#8217;osservazione della classe k <sup>-esima<\/sup> sia della forma X ~ N(\u03bc <sub>k<\/sub> , \u03a3 <sub>k<\/sub> ).<\/span><\/p>\n<p> <span style=\"color: #000000;\">Utilizzando questo presupposto, QDA trova quindi i seguenti valori:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03bc <sub>k<\/sub><\/strong> : La media di tutte le osservazioni di allenamento della <sup>kesima<\/sup> classe.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03a3 <sub>k<\/sub> :<\/strong> La matrice di covarianza della classe <sup>k-esima<\/sup> .<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c0 <sub>k<\/sub><\/strong> : La proporzione di osservazioni di addestramento che appartengono alla k- <sup>esima<\/sup> classe.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">QDA inserisce quindi questi numeri nella formula seguente e assegna ciascuna osservazione X = x alla classe per la quale la formula produce il valore pi\u00f9 grande:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>D <sub>k<\/sub> (x) = -1\/2*(x-\u03bc <sub>k<\/sub> ) <sup>T<\/sup> \u03a3 <sub>k<\/sub> <sup>-1<\/sup> (x-\u03bc <sub>k<\/sub> ) \u2013 1\/2*log|\u03a3 <sub>k<\/sub> | + log( <sub>\u03c0k<\/sub> )<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nota che QDA ha <em>quadratico<\/em> nel suo nome perch\u00e9 il valore prodotto dalla funzione sopra deriva dal risultato delle <em>funzioni quadratiche<\/em> di x.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>LDA vs QDA: quando utilizzare l&#8217;uno o l&#8217;altro<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">La differenza principale tra LDA e QDA \u00e8 che LDA presuppone che ciascuna classe condivida una matrice di covarianza, rendendolo un classificatore molto meno flessibile di QDA.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ci\u00f2 significa intrinsecamente che ha una varianza bassa, ovvero avr\u00e0 le stesse prestazioni su diversi set di dati di addestramento.<\/span> <span style=\"color: #000000;\">Lo svantaggio \u00e8 che se l\u2019ipotesi che le classi <em>K<\/em> abbiano la stessa covarianza \u00e8 falsa, allora l\u2019LDA potrebbe soffrire di <a href=\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\" target=\"_blank\" rel=\"noopener noreferrer\">un\u2019elevata distorsione<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">QDA \u00e8 generalmente preferito rispetto a LDA nelle seguenti situazioni:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1)<\/strong> Il set di formazione \u00e8 ampio.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2)<\/strong> \u00c8 improbabile che le classi <em>K<\/em> condividano una matrice di covarianza comune.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando queste condizioni sono soddisfatte, QDA tende a funzionare meglio perch\u00e9 \u00e8 pi\u00f9 flessibile e pu\u00f2 adattarsi meglio ai dati.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Come preparare i dati per QDA<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Assicurati che i tuoi dati soddisfino i seguenti requisiti prima di applicarvi un modello QDA:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. La variabile di risposta \u00e8 categoriale<\/strong> . I modelli QDA sono progettati per essere utilizzati per <a href=\"https:\/\/statorials.org\/it\/regressione-vs.-classificazione\/\" target=\"_blank\" rel=\"noopener noreferrer\">problemi di classificazione<\/a> , ovvero quando la variabile di risposta pu\u00f2 essere inserita in classi o categorie.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Le osservazioni in ciascuna classe seguono una distribuzione normale<\/strong> . Innanzitutto, controlla che la distribuzione dei valori in ciascuna classe sia approssimativamente distribuita normalmente. In caso contrario, puoi scegliere di <a href=\"https:\/\/statorials.org\/it\/trasformare-i-dati-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">trasformare prima i dati<\/a> per rendere la distribuzione pi\u00f9 normale.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Tenere conto dei valori anomali estremi.<\/strong> Assicurati di verificare la presenza di valori anomali estremi nel set di dati prima di applicare LDA. In genere, \u00e8 possibile verificare visivamente la presenza di valori anomali semplicemente utilizzando <a href=\"https:\/\/statorials.org\/it\/baffi-di-scatola\/\" target=\"_blank\" rel=\"noopener noreferrer\">box plot<\/a> o grafici a dispersione.<\/span><\/p>\n<h3> <strong>QDA in R e Python<\/strong><\/h3>\n<p> I seguenti tutorial forniscono esempi passo passo su come eseguire l&#8217;analisi discriminante quadratica in R e Python:<\/p>\n<p> <a href=\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Analisi discriminante quadratica in R (passo dopo passo)<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Analisi discriminante quadratica in Python (passo dopo passo)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Quando disponiamo di un insieme di variabili predittive e vogliamo classificare una variabile di risposta in una delle due classi, generalmente utilizziamo la regressione logistica . Tuttavia, quando una variabile di risposta ha pi\u00f9 di due classi possibili, generalmente utilizziamo l&#8217;analisi discriminante lineare , spesso chiamata LDA. L&#8217;LDA presuppone che (1) le osservazioni in ciascuna [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Introduzione all&#039;Analisi Discriminante Quadratica - Statorials<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce un&#039;introduzione all&#039;analisi discriminante quadratica, un metodo comunemente utilizzato nell&#039;apprendimento automatico.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Introduzione all&#039;Analisi Discriminante Quadratica - Statorials\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce un&#039;introduzione all&#039;analisi discriminante quadratica, un metodo comunemente utilizzato nell&#039;apprendimento automatico.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T10:36:37+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/\",\"url\":\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/\",\"name\":\"Introduzione all&#39;Analisi Discriminante Quadratica - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T10:36:37+00:00\",\"dateModified\":\"2023-07-27T10:36:37+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce un&#39;introduzione all&#39;analisi discriminante quadratica, un metodo comunemente utilizzato nell&#39;apprendimento automatico.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Introduzione all&#39;analisi discriminante quadratica\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Introduzione all&#39;Analisi Discriminante Quadratica - Statorials","description":"Questo tutorial fornisce un&#39;introduzione all&#39;analisi discriminante quadratica, un metodo comunemente utilizzato nell&#39;apprendimento automatico.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/","og_locale":"it_IT","og_type":"article","og_title":"Introduzione all&#39;Analisi Discriminante Quadratica - Statorials","og_description":"Questo tutorial fornisce un&#39;introduzione all&#39;analisi discriminante quadratica, un metodo comunemente utilizzato nell&#39;apprendimento automatico.","og_url":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/","og_site_name":"Statorials","article_published_time":"2023-07-27T10:36:37+00:00","author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"3 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/","url":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/","name":"Introduzione all&#39;Analisi Discriminante Quadratica - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T10:36:37+00:00","dateModified":"2023-07-27T10:36:37+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce un&#39;introduzione all&#39;analisi discriminante quadratica, un metodo comunemente utilizzato nell&#39;apprendimento automatico.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/analisi-discriminante-quadratica\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Introduzione all&#39;analisi discriminante quadratica"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1166"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1166"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1166\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1166"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1166"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1166"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}