{"id":1201,"date":"2023-07-27T07:44:59","date_gmt":"2023-07-27T07:44:59","guid":{"rendered":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/"},"modified":"2023-07-27T07:44:59","modified_gmt":"2023-07-27T07:44:59","slug":"regressione-delle-componenti-principali","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/","title":{"rendered":"Un&#39;introduzione alla regressione delle componenti principali"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Uno dei problemi pi\u00f9 comuni che incontrerai durante la creazione di modelli \u00e8 <a href=\"https:\/\/statorials.org\/it\/regressione-multicollinearita\/\" target=\"_blank\" rel=\"noopener noreferrer\">la multicollinearit\u00e0<\/a> . Ci\u00f2 si verifica quando due o pi\u00f9 variabili predittive in un set di dati sono altamente correlate.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando ci\u00f2 accade, un dato modello potrebbe essere in grado di adattarsi bene a un set di dati di addestramento, ma probabilmente funzioner\u00e0 male su un nuovo set di dati che non ha mai visto perch\u00e9 si <a href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">adatta eccessivamente<\/a> al set di dati di addestramento.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un modo per evitare l&#8217;adattamento eccessivo \u00e8 utilizzare un tipo di metodo <strong>di selezione del sottoinsieme<\/strong> come:<\/span><\/p>\n<ul>\n<li> <a href=\"https:\/\/statorials.org\/it\/migliore-selezione-di-sottoinsiemi\/\" target=\"_blank\" rel=\"noopener noreferrer\">Migliore selezione del sottoinsieme<\/a><\/li>\n<li> <a href=\"https:\/\/statorials.org\/it\/selezione-per-fasi\/\" target=\"_blank\" rel=\"noopener noreferrer\">Selezione graduale<\/a><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Questi metodi tentano di rimuovere i predittori irrilevanti dal modello in modo che nel modello finale vengano lasciati solo i predittori pi\u00f9 importanti in grado di prevedere la variazione nella variabile di risposta.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un altro modo per evitare l&#8217;overfitting \u00e8 utilizzare qualche tipo di metodo <strong>di regolarizzazione<\/strong> come:<\/span><\/p>\n<ul>\n<li> <a href=\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione di picco<\/a><\/li>\n<li> <a href=\"https:\/\/statorials.org\/it\/regressione-al-lazo\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione al lazo<\/a><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Questi metodi tentano di vincolare o <em>regolarizzare<\/em> i coefficienti di un modello per ridurre la varianza e quindi produrre modelli in grado di generalizzarsi bene a nuovi dati.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un approccio completamente diverso per gestire la multicollinearit\u00e0 \u00e8 noto come <strong>riduzione dimensionale<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un metodo comune di riduzione delle dimensioni \u00e8 noto come <strong>regressione delle componenti principali<\/strong> , che funziona come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Supponiamo che <sub>un<\/sub> dato set di dati contenga <em>p<\/em> <sub>predittori<\/sub> <sub>:<\/sub><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Calcolare Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> come le <em>M<\/em> combinazioni lineari dei predittori <em>p<\/em> originali.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Z<\/sub> <sub>m<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6<\/sub> <sub>jm<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>1<\/sub> \u00e8 la combinazione lineare di predittori che cattura quanta pi\u00f9 varianza possibile.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>2<\/sub> \u00e8 la successiva combinazione lineare di predittori che cattura la maggior varianza pur essendo <em>ortogonale<\/em> (cio\u00e8 non correlata) a Z <sub>1<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>3<\/sub> \u00e8 quindi la successiva combinazione lineare di predittori che cattura la maggiore varianza pur essendo ortogonale a Z <sub>2<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">E cos\u00ec via.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Utilizzare il metodo dei minimi quadrati per adattare un modello di regressione lineare utilizzando le prime <em>M<\/em> componenti principali Z <sub>1<\/sub> , \u2026, Z <sub>M<\/sub> come predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il termine <strong>riduzione di dimensione<\/strong> deriva dal fatto che questo metodo deve stimare solo i coefficienti M+1 invece dei coefficienti p+1, dove M &lt; p.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In altre parole, la <em>dimensione<\/em> del problema \u00e8 stata ridotta da p+1 a M+1.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In molti casi in cui \u00e8 presente la multicollinearit\u00e0 in un set di dati, la regressione delle componenti principali \u00e8 in grado di produrre un modello in grado di generalizzare a nuovi dati meglio della <a href=\"https:\/\/statorials.org\/it\/regressione-lineare-multipla\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressione lineare multipla<\/a> convenzionale.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Passaggi per eseguire la regressione delle componenti principali<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In pratica, per eseguire la regressione delle componenti principali vengono utilizzati i seguenti passaggi:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Standardizzare i predittori.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Innanzitutto, in genere standardizziamo i dati in modo tale che ciascuna variabile predittrice abbia un valore medio pari a 0 e una deviazione standard pari a 1. Ci\u00f2 impedisce a un predittore di avere troppa influenza, soprattutto se viene misurato in unit\u00e0 diverse (c cio\u00e8 se <sub>1<\/sub> \u00e8 misurato in pollici). e X <sub>2<\/sub> \u00e8 misurato in iarde).<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Calcolare le componenti principali ed eseguire una regressione lineare utilizzando le componenti principali come predittori.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Successivamente, calcoliamo le componenti principali e utilizziamo il metodo dei minimi quadrati per adattare un modello di regressione lineare utilizzando le prime <em>M<\/em> componenti principali Z <sub>1<\/sub> , \u2026, Z <sub>M<\/sub> come predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Decidere quanti componenti principali conservare.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Successivamente, utilizziamo <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">la convalida incrociata k-fold<\/a> per trovare il numero ottimale di componenti principali da mantenere nel modello. Il numero \u201cottimale\u201d di componenti principali da mantenere \u00e8 generalmente il numero che produce l\u2019errore quadratico medio (MSE) pi\u00f9 basso del test.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Vantaggi e svantaggi della regressione delle componenti principali<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">La regressione delle componenti principali (PCR) offre i seguenti <strong>vantaggi<\/strong> :<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">La PCR tende a funzionare bene quando i primi componenti principali sono in grado di catturare la maggior parte della variazione dei predittori nonch\u00e9 la relazione con la variabile di risposta.<\/span><\/li>\n<li> <span style=\"color: #000000;\">La PCR pu\u00f2 funzionare bene anche quando le variabili predittive sono altamente correlate, perch\u00e9 produce componenti principali che sono ortogonali (cio\u00e8 non correlate) tra loro.<\/span><\/li>\n<li> <span style=\"color: #000000;\">La PCR non richiede di scegliere quali variabili predittive rimuovere dal modello poich\u00e9 ciascun componente principale utilizza una combinazione lineare di tutte le variabili predittive.<\/span><\/li>\n<li> <span style=\"color: #000000;\">La PCR pu\u00f2 essere utilizzata quando sono presenti pi\u00f9 variabili predittive che osservazioni, a differenza della regressione lineare multipla.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Tuttavia, la PCR presenta uno <strong>svantaggio:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">La PCR non tiene conto della variabile di risposta al momento di decidere quali componenti principali mantenere o rimuovere. Considera invece solo l&#8217;entit\u00e0 della varianza tra le variabili predittive catturate dalle componenti principali. \u00c8 possibile che in alcuni casi le componenti principali con le maggiori differenze non siano in grado di prevedere bene la variabile di risposta.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In pratica, adattiamo molti tipi diversi di modelli (PCR, Ridge, Lasso, regressione lineare multipla, ecc.) e utilizziamo la convalida incrociata k-fold per identificare il modello che produce il test MSE pi\u00f9 basso sui nuovi dati.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nei casi in cui \u00e8 presente la multicollinearit\u00e0 nel set di dati originale (che \u00e8 spesso il caso), la PCR tende a funzionare meglio della regressione ordinaria ai minimi quadrati. Tuttavia, \u00e8 una buona idea adattare diversi modelli in modo da poter identificare quale generalizza meglio i dati invisibili.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regressione dei componenti principali in R e Python<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">I seguenti tutorial mostrano come eseguire la regressione dei componenti principali in R e Python:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione delle componenti principali in R (passo dopo passo)<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\/regressione-dei-componenti-principali-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione dei componenti principali in Python (passo dopo passo)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Uno dei problemi pi\u00f9 comuni che incontrerai durante la creazione di modelli \u00e8 la multicollinearit\u00e0 . Ci\u00f2 si verifica quando due o pi\u00f9 variabili predittive in un set di dati sono altamente correlate. Quando ci\u00f2 accade, un dato modello potrebbe essere in grado di adattarsi bene a un set di dati di addestramento, ma probabilmente [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Un&#039;introduzione alla regressione delle componenti principali<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce una rapida introduzione alla regressione dei componenti principali, una tecnica comune utilizzata nell&#039;apprendimento automatico.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Un&#039;introduzione alla regressione delle componenti principali\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce una rapida introduzione alla regressione dei componenti principali, una tecnica comune utilizzata nell&#039;apprendimento automatico.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:44:59+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/\",\"url\":\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/\",\"name\":\"Un&#39;introduzione alla regressione delle componenti principali\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T07:44:59+00:00\",\"dateModified\":\"2023-07-27T07:44:59+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce una rapida introduzione alla regressione dei componenti principali, una tecnica comune utilizzata nell&#39;apprendimento automatico.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Un&#39;introduzione alla regressione delle componenti principali\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Un&#39;introduzione alla regressione delle componenti principali","description":"Questo tutorial fornisce una rapida introduzione alla regressione dei componenti principali, una tecnica comune utilizzata nell&#39;apprendimento automatico.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/","og_locale":"it_IT","og_type":"article","og_title":"Un&#39;introduzione alla regressione delle componenti principali","og_description":"Questo tutorial fornisce una rapida introduzione alla regressione dei componenti principali, una tecnica comune utilizzata nell&#39;apprendimento automatico.","og_url":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:44:59+00:00","author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"4 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/","url":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/","name":"Un&#39;introduzione alla regressione delle componenti principali","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T07:44:59+00:00","dateModified":"2023-07-27T07:44:59+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce una rapida introduzione alla regressione dei componenti principali, una tecnica comune utilizzata nell&#39;apprendimento automatico.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/regressione-delle-componenti-principali\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Un&#39;introduzione alla regressione delle componenti principali"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1201"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1201"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1201\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1201"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1201"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1201"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}