{"id":3141,"date":"2023-07-19T00:41:50","date_gmt":"2023-07-19T00:41:50","guid":{"rendered":"https:\/\/statorials.org\/it\/selezione-posteriore\/"},"modified":"2023-07-19T00:41:50","modified_gmt":"2023-07-19T00:41:50","slug":"selezione-posteriore","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/selezione-posteriore\/","title":{"rendered":"Cos&#39;\u00e8 la selezione all&#39;indietro? (definizione &amp; #038; esempio)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">In statistica, <strong>la selezione graduale<\/strong> \u00e8 una procedura che possiamo utilizzare per costruire un <a href=\"https:\/\/statorials.org\/it\/regressione-lineare-multipla\/\" target=\"_blank\" rel=\"noopener noreferrer\">modello di regressione<\/a> da un insieme di variabili predittive inserendo e rimuovendo i predittori passo dopo passo nel modello finch\u00e9 non esiste pi\u00f9 un motivo statisticamente valido per inserirli o eliminarne altri.<\/span><\/p>\n<p> <span style=\"color: #000000;\">L&#8217;obiettivo della selezione graduale \u00e8 creare un modello di regressione che includa tutte le variabili predittive correlate in modo statisticamente significativo alla <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Uno dei metodi di selezione passo-passo pi\u00f9 comunemente utilizzati \u00e8 noto come <strong>selezione all&#8217;indietro<\/strong> , che funziona come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 1:<\/strong> adattare un modello di regressione utilizzando tutte le variabili predittive <em>p<\/em> . Calcolare il valore AIC <strong>*<\/strong> per il modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 2:<\/strong> rimuovere la variabile predittiva che determina la riduzione maggiore dell&#8217;AIC e comporta anche una riduzione statisticamente significativa dell&#8217;AIC rispetto al modello con tutte le variabili predittive <em>p<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 3:<\/strong> rimuovere la variabile predittiva che determina la riduzione maggiore dell&#8217;AIC e comporta anche una riduzione statisticamente significativa dell&#8217;AIC rispetto al modello con variabili predittive <em>p-1<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ripetere il processo fino a quando la rimozione di eventuali variabili predittive non porta pi\u00f9 a una riduzione statisticamente significativa dell&#8217;AIC.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>*<\/strong> Sono disponibili diversi parametri che \u00e8 possibile utilizzare per calcolare la bont\u00e0 dell&#8217;adattamento di un modello di regressione, inclusi l&#8217;errore di previsione della convalida incrociata, Cp, BIC, AIC o <sup>R2<\/sup> corretto.<\/span> <span style=\"color: #000000;\">Nell&#8217;esempio seguente, scegliamo di utilizzare AIC.<\/span><\/p>\n<p> <span style=\"color: #000000;\">L&#8217;esempio seguente mostra come eseguire una selezione all&#8217;indietro in R.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Esempio: selezione all&#8217;indietro in R<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Per questo esempio, utilizzeremo il <a href=\"https:\/\/statorials.org\/it\/set-di-dati-mtcars-r\/\" target=\"_blank\" rel=\"noopener\">set di dati mtcars<\/a> integrato in R:<\/span><\/p>\n<pre style=\"background-color: #e5e5e5; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#view first six rows of <em>mtcars\n<\/em><\/span>head(mtcars)\n\n                   mpg cyl disp hp drat wt qsec vs am gear carb\nMazda RX4 21.0 6 160 110 3.90 2.620 16.46 0 1 4 4\nMazda RX4 Wag 21.0 6 160 110 3.90 2.875 17.02 0 1 4 4\nDatsun 710 22.8 4 108 93 3.85 2.320 18.61 1 1 4 1\nHornet 4 Drive 21.4 6 258 110 3.08 3.215 19.44 1 0 3 1\nHornet Sportabout 18.7 8 360 175 3.15 3.440 17.02 0 0 3 2\nValiant 18.1 6 225 105 2.76 3,460 20.22 1 0 3 1\n<\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Adatteremo un modello di regressione lineare multipla utilizzando <em>mpg<\/em> (miglia per gallone) come variabile di risposta e le altre 10 variabili nel set di dati come potenziali variabili predittive.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il codice seguente mostra come tornare indietro:<\/span><\/p>\n<pre style=\"background-color: #e5e5e5; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#define intercept-only model\n<\/span>intercept_only &lt;- lm(mpg ~ 1, data=mtcars)\n\n<span style=\"color: #008080;\">#define model with all predictors\n<\/span>all &lt;- lm(mpg ~ ., data=mtcars)\n\n<span style=\"color: #008080;\">#perform backward stepwise regression\n<\/span>backward &lt;- step(all, direction=' <span style=\"color: #008000;\">backward<\/span> ', scope= <span style=\"color: #3366ff;\">formula<\/span> (all), trace=0)\n\n<span style=\"color: #008080;\">#view results of backward stepwise regression<\/span>\nbackward$anova\n\n    Step Df Deviance Resid. Df Resid. Dev AIC\n1 NA NA 21 147.4944 70.89774\n2 - cyl 1 0.07987121 22 147.5743 68.91507\n3 - vs 1 0.26852280 23 147.8428 66.97324\n4 - carb 1 0.68546077 24 148.5283 65.12126\n5 - gear 1 1.56497053 25 150.0933 63.45667\n6 - drat 1 3.34455117 26 153.4378 62.16190\n7 - available 1 6.62865369 27 160.0665 61.51530\n8 - hp 1 9.21946935 28 169.2859 61.30730\n\n<span style=\"color: #008080;\">#view final model\n<\/span>backward$coefficients\n\n(Intercept) wt qsec am \n   9.617781 -3.916504 1.225886 2.935837\n<\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Ecco come interpretare i risultati:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Innanzitutto, adattiamo un modello utilizzando le 10 variabili predittive e calcoliamo l&#8217;AIC del modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Successivamente, abbiamo rimosso la variabile ( <strong>cil<\/strong> ) che ha comportato la maggiore riduzione dell&#8217;AIC e ottenuto anche una riduzione statisticamente significativa dell&#8217;AIC rispetto al modello a 10 variabili predittive.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Successivamente, abbiamo rimosso la variabile ( <strong>vs<\/strong> ) che ha portato alla maggiore riduzione dell&#8217;AIC e ottenuto anche una riduzione statisticamente significativa dell&#8217;AIC rispetto al modello della variabile predittrice a 9 predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Successivamente, abbiamo rimosso la variabile ( <strong>carb<\/strong> ) che determinava la maggiore riduzione dell\u2019AIC e ottenuto anche una riduzione statisticamente significativa dell\u2019AIC rispetto al modello con variabili a 8 predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Abbiamo ripetuto questo processo fino a rimuovere qualsiasi variabile che non risultasse pi\u00f9 in una riduzione statisticamente significativa dell&#8217;AIC.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il modello finale risulta essere:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>mpg = 9,62 \u2013 3,92*peso + 1,23*qsec + 2,94*am<\/strong><\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Una nota sull&#8217;utilizzo dell&#8217;AIC<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Nell&#8217;esempio precedente, abbiamo scelto di utilizzare l&#8217;AIC come metrica per valutare l&#8217;adattamento di vari modelli di regressione.<\/span><\/p>\n<p> <span style=\"color: #000000;\">AIC sta per <strong>Akaike Information Criterion<\/strong> e viene calcolato come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\">AIC = 2K \u2013 2 <em>ln<\/em> (L)<\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>K:<\/strong> il numero di parametri del modello.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong><em>ln<\/em> (L)<\/strong> : la log-verosimiglianza del modello. Questo ci dice la probabilit\u00e0 del modello, dati i dati.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Tuttavia, esistono altri parametri che puoi scegliere di utilizzare per valutare l&#8217;adattamento dei modelli di regressione, tra cui l&#8217;errore di previsione della convalida incrociata, Cp, BIC, AIC o <sup>R2<\/sup> corretto.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Fortunatamente, la maggior parte dei software statistici ti consente di specificare quale metrica desideri utilizzare durante lo screening retrospettivo.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Risorse addizionali<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Le seguenti esercitazioni forniscono informazioni aggiuntive sui modelli di regressione:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/it\/selezione-in-avanti\/\">Introduzione alla selezione diretta<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\/regressione-multicollinearita\/\" target=\"_blank\" rel=\"noopener\">Una guida alla multicollinearit\u00e0 e al VIF nella regressione<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\" target=\"_blank\" rel=\"noopener\">Qual \u00e8 considerato un buon valore AIC?<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>In statistica, la selezione graduale \u00e8 una procedura che possiamo utilizzare per costruire un modello di regressione da un insieme di variabili predittive inserendo e rimuovendo i predittori passo dopo passo nel modello finch\u00e9 non esiste pi\u00f9 un motivo statisticamente valido per inserirli o eliminarne altri. L&#8217;obiettivo della selezione graduale \u00e8 creare un modello di [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Cos&#039;\u00e8 la selezione all&#039;indietro? (Definizione ed esempio) - Statorials<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce una spiegazione della backselection, inclusa una definizione ed un esempio.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/selezione-posteriore\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Cos&#039;\u00e8 la selezione all&#039;indietro? (Definizione ed esempio) - Statorials\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce una spiegazione della backselection, inclusa una definizione ed un esempio.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/selezione-posteriore\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-19T00:41:50+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/selezione-posteriore\/\",\"url\":\"https:\/\/statorials.org\/it\/selezione-posteriore\/\",\"name\":\"Cos&#39;\u00e8 la selezione all&#39;indietro? (Definizione ed esempio) - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-19T00:41:50+00:00\",\"dateModified\":\"2023-07-19T00:41:50+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce una spiegazione della backselection, inclusa una definizione ed un esempio.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/selezione-posteriore\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/selezione-posteriore\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/selezione-posteriore\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Cos&#39;\u00e8 la selezione all&#39;indietro? (definizione &amp; #038; esempio)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Cos&#39;\u00e8 la selezione all&#39;indietro? (Definizione ed esempio) - Statorials","description":"Questo tutorial fornisce una spiegazione della backselection, inclusa una definizione ed un esempio.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/selezione-posteriore\/","og_locale":"it_IT","og_type":"article","og_title":"Cos&#39;\u00e8 la selezione all&#39;indietro? (Definizione ed esempio) - Statorials","og_description":"Questo tutorial fornisce una spiegazione della backselection, inclusa una definizione ed un esempio.","og_url":"https:\/\/statorials.org\/it\/selezione-posteriore\/","og_site_name":"Statorials","article_published_time":"2023-07-19T00:41:50+00:00","author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"3 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/selezione-posteriore\/","url":"https:\/\/statorials.org\/it\/selezione-posteriore\/","name":"Cos&#39;\u00e8 la selezione all&#39;indietro? (Definizione ed esempio) - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-19T00:41:50+00:00","dateModified":"2023-07-19T00:41:50+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce una spiegazione della backselection, inclusa una definizione ed un esempio.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/selezione-posteriore\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/selezione-posteriore\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/selezione-posteriore\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Cos&#39;\u00e8 la selezione all&#39;indietro? (definizione &amp; #038; esempio)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/3141"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=3141"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/3141\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=3141"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=3141"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=3141"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}