{"id":1209,"date":"2023-07-27T07:03:03","date_gmt":"2023-07-27T07:03:03","guid":{"rendered":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/"},"modified":"2023-07-27T07:03:03","modified_gmt":"2023-07-27T07:03:03","slug":"minimi-quadrati-parziali","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/","title":{"rendered":"Un&#39;introduzione ai minimi quadrati parziali"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Uno dei problemi pi\u00f9 comuni che incontrerai nell&#8217;apprendimento automatico \u00e8 <a href=\"https:\/\/statorials.org\/it\/regressione-multicollinearita\/\" target=\"_blank\" rel=\"noopener noreferrer\">la multicollinearit\u00e0<\/a> . Ci\u00f2 si verifica quando due o pi\u00f9 variabili predittive in un set di dati sono altamente correlate.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando ci\u00f2 accade, un modello potrebbe essere in grado di adattarsi bene a un set di dati di addestramento, ma potrebbe funzionare male su un nuovo set di dati che non ha mai visto perch\u00e9 si <a href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">adatta eccessivamente<\/a> al set di dati di addestramento. insieme di formazione.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un modo per aggirare il problema della multicollinearit\u00e0 \u00e8 utilizzare <a href=\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/\" target=\"_blank\" rel=\"noopener noreferrer\">la regressione delle componenti principali<\/a> , che calcola <em>M<\/em> combinazioni lineari (chiamate &#8220;componenti principali&#8221;) delle variabili predittive <em>p<\/em> originali e quindi utilizza il metodo dei minimi quadrati per adattare un modello di regressione lineare utilizzando il principio componenti come predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Lo svantaggio della regressione delle componenti principali (PCR) \u00e8 che non tiene conto della <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> nel calcolo delle componenti principali.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Considera invece solo l&#8217;entit\u00e0 della varianza tra le variabili predittive catturate dalle componenti principali. Per questo motivo \u00e8 possibile che in alcuni casi le componenti principali con le maggiori deviazioni non siano in grado di prevedere bene la variabile di risposta.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Una tecnica correlata alla PCR \u00e8 nota come <strong>minimi quadrati parziali<\/strong> . Similmente alla PCR, i minimi quadrati parziali calcolano <em>M<\/em> combinazioni lineari (chiamate &#8220;componenti PLS&#8221;) delle variabili predittive <em>p<\/em> originali e utilizzano il metodo dei minimi quadrati per adattare un modello di regressione lineare utilizzando i componenti PLS come predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ma a differenza della PCR, i minimi quadrati parziali tentano di trovare combinazioni lineari che spieghino la variazione <em>sia<\/em> nella variabile di risposta che nelle variabili predittive.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Passaggi per eseguire i minimi quadrati parziali<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In pratica, i seguenti passaggi vengono utilizzati per eseguire i minimi quadrati parziali.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong><\/span> <span style=\"color: #000000;\">Standardizzare i dati in modo tale che tutte le variabili predittive e la variabile di risposta abbiano una media pari a 0 e una deviazione standard pari a 1. Ci\u00f2 garantisce che ciascuna variabile sia misurata sulla stessa scala.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Calcolare Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> come le <em>M<\/em> combinazioni lineari dei predittori <em>p<\/em> originali.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Z<\/sub> <sub>m<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6<\/sub> <sub>jm<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Per calcolare Z <sub>1<\/sub> , impostare \u03a6 <sub>j1<\/sub> uguale al coefficiente della regressione lineare semplice di Y su X <sub>j<\/sub> \u00e8 la combinazione lineare di predittori che cattura quanta pi\u00f9 varianza possibile.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Per calcolare Z <sub>2<\/sub> , regredire ciascuna variabile su Z <sub>1<\/sub> e prendere i residui. Quindi calcola Z <sub>2<\/sub> utilizzando questi dati ortogonali esattamente nello stesso modo in cui \u00e8 stato calcolato Z <sub>1<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Ripetere questo processo <em>M<\/em> volte per ottenere <em>M<\/em> componenti PLS.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Utilizzare il metodo dei minimi quadrati per adattare un modello di regressione lineare utilizzando i componenti PLS Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> come predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>4.<\/strong> Infine,<\/span> <span style=\"color: #000000;\">utilizzare <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">la convalida incrociata k-fold<\/a> per trovare il numero ottimale di componenti PLS da mantenere nel modello. Il numero \u201cottimale\u201d di componenti PLS da conservare \u00e8 generalmente il numero che produce il pi\u00f9 basso errore quadratico medio del test (MSE).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Conclusione<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Nei casi in cui in un set di dati \u00e8 presente la multicollinearit\u00e0, la regressione parziale dei minimi quadrati tende a funzionare meglio della regressione ordinaria dei minimi quadrati. Tuttavia, \u00e8 una buona idea adattare diversi modelli in modo da poter identificare quale generalizza meglio i dati invisibili.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In pratica, adattiamo molti tipi diversi di modelli (PLS, <a href=\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/\" target=\"_blank\" rel=\"noopener noreferrer\">PCR<\/a> , <a href=\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge<\/a> , <a href=\"https:\/\/statorials.org\/it\/regressione-al-lazo\/\" target=\"_blank\" rel=\"noopener noreferrer\">Lasso<\/a> , <a href=\"https:\/\/statorials.org\/it\/regressione-lineare-multipla\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione lineare multipla<\/a> , ecc.) a un set di dati e utilizziamo la convalida incrociata k-fold per identificare il modello che produce meglio il test MSE. inferiore sui nuovi dati. .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Uno dei problemi pi\u00f9 comuni che incontrerai nell&#8217;apprendimento automatico \u00e8 la multicollinearit\u00e0 . Ci\u00f2 si verifica quando due o pi\u00f9 variabili predittive in un set di dati sono altamente correlate. Quando ci\u00f2 accade, un modello potrebbe essere in grado di adattarsi bene a un set di dati di addestramento, ma potrebbe funzionare male su un [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Un&#039;introduzione ai minimi quadrati parziali - Statorials<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce un&#039;introduzione ai minimi quadrati parziali, una tecnica comune di riduzione delle dimensioni utilizzata nell&#039;apprendimento automatico.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Un&#039;introduzione ai minimi quadrati parziali - Statorials\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce un&#039;introduzione ai minimi quadrati parziali, una tecnica comune di riduzione delle dimensioni utilizzata nell&#039;apprendimento automatico.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:03:03+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/\",\"url\":\"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/\",\"name\":\"Un&#39;introduzione ai minimi quadrati parziali - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T07:03:03+00:00\",\"dateModified\":\"2023-07-27T07:03:03+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce un&#39;introduzione ai minimi quadrati parziali, una tecnica comune di riduzione delle dimensioni utilizzata nell&#39;apprendimento automatico.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Un&#39;introduzione ai minimi quadrati parziali\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Un&#39;introduzione ai minimi quadrati parziali - Statorials","description":"Questo tutorial fornisce un&#39;introduzione ai minimi quadrati parziali, una tecnica comune di riduzione delle dimensioni utilizzata nell&#39;apprendimento automatico.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/","og_locale":"it_IT","og_type":"article","og_title":"Un&#39;introduzione ai minimi quadrati parziali - Statorials","og_description":"Questo tutorial fornisce un&#39;introduzione ai minimi quadrati parziali, una tecnica comune di riduzione delle dimensioni utilizzata nell&#39;apprendimento automatico.","og_url":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:03:03+00:00","author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"3 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/","url":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/","name":"Un&#39;introduzione ai minimi quadrati parziali - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T07:03:03+00:00","dateModified":"2023-07-27T07:03:03+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce un&#39;introduzione ai minimi quadrati parziali, una tecnica comune di riduzione delle dimensioni utilizzata nell&#39;apprendimento automatico.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/minimi-quadrati-parziali\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Un&#39;introduzione ai minimi quadrati parziali"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1209"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1209"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1209\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1209"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1209"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1209"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}