{"id":1182,"date":"2023-07-27T09:18:03","date_gmt":"2023-07-27T09:18:03","guid":{"rendered":"https:\/\/statorials.org\/it\/selezione-per-fasi\/"},"modified":"2023-07-27T09:18:03","modified_gmt":"2023-07-27T09:18:03","slug":"selezione-per-fasi","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/selezione-per-fasi\/","title":{"rendered":"Cos\u2019\u00e8 la selezione graduale? (spiegazione ed esempi)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Nel campo dell&#8217;apprendimento automatico, il nostro obiettivo \u00e8 creare un modello in grado di utilizzare efficacemente un insieme di variabili predittive per prevedere il valore di una <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dato un insieme di <em>p<\/em> variabili predittive totali, ci sono molti modelli che potremmo potenzialmente costruire.<\/span> <span style=\"color: #000000;\">Un metodo che possiamo utilizzare per selezionare il modello migliore \u00e8 noto come <a href=\"https:\/\/statorials.org\/it\/migliore-selezione-di-sottoinsiemi\/\" target=\"_blank\" rel=\"noopener noreferrer\">selezione del miglior sottoinsieme<\/a> , che tenta di scegliere il modello migliore tra <em>tutti<\/em> i possibili modelli che potrebbero essere costruiti con l&#8217;insieme di predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Purtroppo questo metodo presenta due svantaggi:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Questo pu\u00f2 essere computazionalmente intenso. Per un insieme di <em>p<\/em> variabili predittive, ci sono 2 <sup>p<\/sup> modelli possibili. Ad esempio, con 10 variabili predittive, ci sono 2 <sup>10<\/sup> = 1000 possibili modelli da considerare.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Poich\u00e9 considera un numero molto elevato di modelli, potrebbe potenzialmente trovare un modello che funzioni bene sui dati di training ma non sui dati futuri. Ci\u00f2 potrebbe portare <a href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">a un overfitting<\/a> .<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Un&#8217;alternativa alla selezione del sottoinsieme migliore \u00e8 nota come <strong>selezione graduale<\/strong> , che confronta un insieme di modelli molto pi\u00f9 piccolo.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Esistono due tipi di metodi di selezione del passo: selezione del passo in avanti e selezione del passo all&#8217;indietro.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Selezione passo dopo passo<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">La selezione in avanti passo dopo passo funziona come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Sia M <sub>0<\/sub> il modello nullo, che non contiene alcuna variabile predittiva.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Per k = 0, 2, \u2026 p-1:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Adatta tutti i modelli pk che aumentano i predittori in M <sub>k<\/sub> con una variabile predittiva aggiuntiva.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Scegli il migliore tra questi modelli pk e chiamalo M <sub>k+1<\/sub> . Definisci \u201cmigliore\u201d come il modello con il R <sup>2<\/sup> pi\u00f9 alto o, equivalentemente, l&#8217;RSS pi\u00f9 basso.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Selezionare un singolo modello migliore da M <sub>0<\/sub> \u2026 M <sub>p<\/sub> utilizzando l&#8217;errore di previsione della convalida incrociata, Cp, BIC, AIC o R <sup>2<\/sup> corretto.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Selezione indietro passo dopo passo<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">La selezione del passo indietro funziona come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Sia M <sub>p<\/sub> il modello completo, che contiene tutte <em>le p<\/em> variabili predittive.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Per k = p, p-1, \u2026 1:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Adatta tutti i modelli k che contengono tutti i predittori tranne uno in <sub>Mk<\/sub> , per un totale di variabili predittive k-1.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Scegli il migliore tra questi modelli k e chiamalo M <sub>k-1<\/sub> . Definisci \u201cmigliore\u201d come il modello con il R <sup>2<\/sup> pi\u00f9 alto o, equivalentemente, l&#8217;RSS pi\u00f9 basso.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Selezionare un singolo modello migliore da M <sub>0<\/sub> \u2026 M <sub>p<\/sub> utilizzando l&#8217;errore di previsione della convalida incrociata, Cp, BIC, AIC o R <sup>2<\/sup> corretto.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Criteri per la scelta del modello \u201cmigliore\u201d.<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Il passo finale della selezione graduale in avanti e all&#8217;indietro consiste nello scegliere il modello con l&#8217;errore di previsione pi\u00f9 basso, il Cp pi\u00f9 basso, il BIC pi\u00f9 basso, l&#8217;AIC basso pi\u00f9 alto o l&#8217;R <sup>2<\/sup> corretto pi\u00f9 alto.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ecco le formule utilizzate per calcolare ciascuna di queste metriche:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Cp:<\/strong> (RSS+2d\u03c3\u0302) \/ n<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>AIC:<\/strong> (RSS+2d\u03c3\u0302 <sup>2<\/sup> ) \/ (n\u03c3\u0302 <sup>2<\/sup> )<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>BIC:<\/strong> (RSS+log(n)d\u03c3\u0302 <sup>2<\/sup> ) \/ n<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>R <sup>2<\/sup> regolato:<\/strong> 1 \u2013 ( (RSS \/ (nd-1)) \/ (TSS \/ (n-1)) )<\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>d:<\/strong> il numero di predittori<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> osservazioni totali<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c3\u0302:<\/strong> Stima della varianza dell&#8217;errore associata a ciascuna misura di risposta in un modello di regressione<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>RSS:<\/strong> somma residua dei quadrati dal modello di regressione<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>TSS:<\/strong> somma totale dei quadrati del modello di regressione<\/span><\/li>\n<\/ul>\n<h3> <span style=\"color: #000000;\"><strong>Vantaggi e svantaggi della selezione per fasi<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">La selezione graduale offre i seguenti <strong>vantaggi<\/strong> :<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo metodo \u00e8 pi\u00f9 efficiente dal punto di vista computazionale rispetto alla selezione del sottoinsieme migliore. Date <em>p<\/em> variabili predittive, la selezione del miglior sottoinsieme deve corrispondere a 2 <sup>p<\/sup> modelli.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Al contrario, la selezione graduale dovrebbe adattarsi solo ai modelli 1+p(p+ 1)\/2. Per p = 10 variabili predittive, la selezione del miglior sottoinsieme dovrebbe adattarsi a 1.000 modelli, mentre la selezione graduale dovrebbe adattarsi solo a 56 modelli.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, la selezione graduale presenta il <strong>seguente potenziale svantaggio:<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Non \u00e8 garantito trovare il miglior modello possibile tra tutti i potenziali modelli <sup>2p<\/sup> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ad esempio, supponiamo di avere un set di dati con p = 3 predittori. Il miglior modello possibile a un predittore pu\u00f2 contenere x <sub>1<\/sub> e il miglior modello possibile a due predittori pu\u00f2 contenere invece x <sub>1<\/sub> e x <sub>2<\/sub> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">In questo caso, la selezione graduale in avanti non riuscir\u00e0 a selezionare il miglior modello possibile a due predittori perch\u00e9 M <sub>1<\/sub> conterr\u00e0 x <sub>1<\/sub> , quindi M <sub>2<\/sub> deve contenere anche x <sub>1<\/sub> oltre a un&#8217;altra variabile.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nel campo dell&#8217;apprendimento automatico, il nostro obiettivo \u00e8 creare un modello in grado di utilizzare efficacemente un insieme di variabili predittive per prevedere il valore di una variabile di risposta . Dato un insieme di p variabili predittive totali, ci sono molti modelli che potremmo potenzialmente costruire. Un metodo che possiamo utilizzare per selezionare il [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Cos\u2019\u00e8 la selezione graduale? (Spiegazione ed esempi)<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce una spiegazione passo passo della selezione del modello con un esempio.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/selezione-per-fasi\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Cos\u2019\u00e8 la selezione graduale? (Spiegazione ed esempi)\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce una spiegazione passo passo della selezione del modello con un esempio.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/selezione-per-fasi\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T09:18:03+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/selezione-per-fasi\/\",\"url\":\"https:\/\/statorials.org\/it\/selezione-per-fasi\/\",\"name\":\"Cos\u2019\u00e8 la selezione graduale? (Spiegazione ed esempi)\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T09:18:03+00:00\",\"dateModified\":\"2023-07-27T09:18:03+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce una spiegazione passo passo della selezione del modello con un esempio.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/selezione-per-fasi\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/selezione-per-fasi\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/selezione-per-fasi\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Cos\u2019\u00e8 la selezione graduale? (spiegazione ed esempi)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Cos\u2019\u00e8 la selezione graduale? (Spiegazione ed esempi)","description":"Questo tutorial fornisce una spiegazione passo passo della selezione del modello con un esempio.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/selezione-per-fasi\/","og_locale":"it_IT","og_type":"article","og_title":"Cos\u2019\u00e8 la selezione graduale? (Spiegazione ed esempi)","og_description":"Questo tutorial fornisce una spiegazione passo passo della selezione del modello con un esempio.","og_url":"https:\/\/statorials.org\/it\/selezione-per-fasi\/","og_site_name":"Statorials","article_published_time":"2023-07-27T09:18:03+00:00","author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"3 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/selezione-per-fasi\/","url":"https:\/\/statorials.org\/it\/selezione-per-fasi\/","name":"Cos\u2019\u00e8 la selezione graduale? (Spiegazione ed esempi)","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T09:18:03+00:00","dateModified":"2023-07-27T09:18:03+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce una spiegazione passo passo della selezione del modello con un esempio.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/selezione-per-fasi\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/selezione-per-fasi\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/selezione-per-fasi\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Cos\u2019\u00e8 la selezione graduale? (spiegazione ed esempi)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1182"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1182"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1182\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1182"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1182"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1182"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}