{"id":1035,"date":"2023-07-27T21:50:46","date_gmt":"2023-07-27T21:50:46","guid":{"rendered":"https:\/\/statorials.org\/it\/modello-parsimonioso\/"},"modified":"2023-07-27T21:50:46","modified_gmt":"2023-07-27T21:50:46","slug":"modello-parsimonioso","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/modello-parsimonioso\/","title":{"rendered":"Cos\u2019\u00e8 un modello parsimonioso?"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Un <strong>modello parsimonioso<\/strong> \u00e8 quello che raggiunge il livello di adattamento desiderato utilizzando il minor numero possibile <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">di variabili esplicative<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il ragionamento alla base di questo tipo di modello nasce dall&#8217;idea del <a href=\"https:\/\/en.wikipedia.org\/wiki\/Occam%27s_razor\" target=\"_blank\" rel=\"noopener noreferrer\">rasoio di Occam<\/a> (a volte chiamato &#8220;principio di parsimonia&#8221;) secondo il quale la spiegazione pi\u00f9 semplice \u00e8 probabilmente quella corretta.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Applicato alla statistica, un modello che ha pochi parametri ma raggiunge un livello di adattamento soddisfacente dovrebbe essere preferito rispetto a un modello che ha moltissimi parametri e raggiunge solo un livello di adattamento leggermente superiore.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ci sono due ragioni per questo:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. I modelli parsimoniosi sono pi\u00f9 facili da interpretare e comprendere.<\/strong> I modelli con meno parametri sono pi\u00f9 facili da capire e spiegare.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. I modelli parsimoniosi tendono ad avere una maggiore capacit\u00e0 predittiva.<\/strong> I modelli con meno parametri tendono a funzionare meglio se applicati a nuovi dati.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Consideriamo i due esempi seguenti per illustrare queste idee.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Esempio 1: Modelli parsimoniosi = Facile interpretazione<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Supponiamo di voler costruire un modello utilizzando un insieme di variabili esplicative relative al settore immobiliare per prevedere i prezzi degli immobili. Consideriamo i seguenti due modelli con il loro R quadrato modificato:<br \/><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Modello 1:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Equazione:<\/strong> prezzo della casa = 8.830 + 81*(piedi quadrati)<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong><sup>R2<\/sup> rettificato:<\/strong> 0,7734<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>Modello 2:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Equazione:<\/strong> Prezzo della casa = 8.921 + 77*(metri quadrati) + 7*(metri quadrati) <sup>2<\/sup> \u2013 9*(et\u00e0) + 600*(camere da letto) + 38*(bagni)<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong><sup>R2<\/sup> rettificato:<\/strong> 0,7823<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Il primo modello ha solo una variabile esplicativa e un <sup>R2<\/sup> corretto di 0,7734, mentre il secondo modello ha cinque variabili esplicative con un <sup>R2<\/sup> corretto leggermente pi\u00f9 alto.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Basandoci sul principio di parsimonia, preferiremmo utilizzare il primo modello perch\u00e9 ciascun modello ha approssimativamente la stessa capacit\u00e0 di spiegare la variazione dei prezzi delle case, ma il primo modello \u00e8 <em>molto<\/em> pi\u00f9 facile da comprendere e spiegare.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ad esempio, nel primo modello, sappiamo che un aumento di un\u2019unit\u00e0 della metratura di una casa \u00e8 associato a un aumento medio del prezzo delle case di 81 dollari. \u00c8 semplice da capire e spiegare.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, nel secondo esempio, le stime dei coefficienti sono molto pi\u00f9 difficili da interpretare. Ad esempio, una stanza in pi\u00f9 nella casa \u00e8 associata a un aumento medio del prezzo della casa di 600 dollari, presupponendo che la metratura, l\u2019et\u00e0 della casa e il numero di bagni rimangano costanti. \u00c8 molto pi\u00f9 difficile da capire e spiegare.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Esempio 2: modelli parsimoniosi = previsioni migliori<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">I modelli parsimoniosi tendono anche a fare previsioni pi\u00f9 accurate sui nuovi set di dati perch\u00e9 hanno meno probabilit\u00e0 di <em><a href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">adattarsi eccessivamente<\/a><\/em> al set di dati originale.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In generale, i modelli con pi\u00f9 parametri produrranno adattamenti pi\u00f9 stretti e valori <sup>R2<\/sup> pi\u00f9 elevati rispetto ai modelli con meno parametri. Sfortunatamente, includere troppi parametri in un modello pu\u00f2 far s\u00ec che il modello si adatti al rumore (o alla \u201ccasualit\u00e0\u201d) dei dati, piuttosto che alla vera relazione sottostante tra le variabili esplicative. e variabili di risposta.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ci\u00f2 significa che un modello molto complesso con molti parametri probabilmente avr\u00e0 prestazioni scarse su un nuovo set di dati mai visto prima, rispetto a un modello pi\u00f9 semplice con meno parametri.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Come scegliere un modello parsimonioso<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Potrebbe esserci un intero corso dedicato al tema della <strong>selezione del modello<\/strong> , ma essenzialmente scegliere un modello parsimonioso significa scegliere un modello che offre le migliori prestazioni secondo una metrica.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Le metriche comunemente utilizzate che valutano i modelli in base alle loro prestazioni su un set di dati di addestramento <em>e<\/em> al numero di parametri includono:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Criterio informativo di Akaike (AIC)<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">L\u2019AIC di un modello pu\u00f2 essere calcolato come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>AIC = -2\/n * LL + 2 * k\/n<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> numero di osservazioni nel set di dati di addestramento.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>LL:<\/strong> verosimiglianza del modello sul dataset di addestramento.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>k:<\/strong> numero di parametri nel modello.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Utilizzando questo metodo, \u00e8 possibile calcolare l&#8217;AIC di ciascun modello e quindi selezionare il modello con il valore AIC pi\u00f9 basso come modello migliore.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo approccio tende a favorire modelli pi\u00f9 complessi rispetto al metodo successivo, BIC.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Criterio informativo bayesiano (BIC)<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Il BIC di un modello pu\u00f2 essere calcolato come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>BIC = -2 * LL + log(n) * k<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> numero di osservazioni nel set di dati di addestramento.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>log:<\/strong> il logaritmo naturale (base e)<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>LL:<\/strong> verosimiglianza del modello sul dataset di addestramento.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>k:<\/strong> numero di parametri nel modello.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Utilizzando questo metodo, \u00e8 possibile calcolare il BIC di ciascun modello e quindi selezionare il modello con il valore BIC pi\u00f9 basso come modello migliore.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo approccio tende a favorire modelli con meno parametri rispetto al metodo AIC.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Lunghezza minima della descrizione (MDL)<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">MDL \u00e8 un modo per valutare modelli dal campo della teoria dell&#8217;informazione. Pu\u00f2 essere calcolato come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>MDL = L(h) + L(D | h)<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>h:<\/strong> Il modello.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>D:<\/strong> Previsioni fatte dal modello.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>L(h):<\/strong> numero di bit necessari per rappresentare il modello.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>L(D | h):<\/strong> numero di bit richiesti per rappresentare le previsioni del modello sui dati di addestramento.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Utilizzando questo metodo, \u00e8 possibile calcolare l&#8217;MDL di ciascun modello e quindi selezionare il modello con il valore MDL pi\u00f9 basso come modello migliore.<\/span><\/p>\n<p> <span style=\"color: #000000;\">A seconda del tipo di problema su cui stai lavorando, uno di questi metodi \u2013 AIC, BIC o MDL \u2013 pu\u00f2 essere preferito rispetto agli altri per selezionare un modello parsimonioso.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un modello parsimonioso \u00e8 quello che raggiunge il livello di adattamento desiderato utilizzando il minor numero possibile di variabili esplicative . Il ragionamento alla base di questo tipo di modello nasce dall&#8217;idea del rasoio di Occam (a volte chiamato &#8220;principio di parsimonia&#8221;) secondo il quale la spiegazione pi\u00f9 semplice \u00e8 probabilmente quella corretta. Applicato alla [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Cos\u2019\u00e8 un modello parsimonioso? - Statorials<\/title>\n<meta name=\"description\" content=\"Una semplice spiegazione dei modelli parsimoniosi, inclusa una definizione ed un esempio.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/modello-parsimonioso\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Cos\u2019\u00e8 un modello parsimonioso? - Statorials\" \/>\n<meta property=\"og:description\" content=\"Una semplice spiegazione dei modelli parsimoniosi, inclusa una definizione ed un esempio.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/modello-parsimonioso\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T21:50:46+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/modello-parsimonioso\/\",\"url\":\"https:\/\/statorials.org\/it\/modello-parsimonioso\/\",\"name\":\"Cos\u2019\u00e8 un modello parsimonioso? - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T21:50:46+00:00\",\"dateModified\":\"2023-07-27T21:50:46+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Una semplice spiegazione dei modelli parsimoniosi, inclusa una definizione ed un esempio.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/modello-parsimonioso\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/modello-parsimonioso\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/modello-parsimonioso\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Cos\u2019\u00e8 un modello parsimonioso?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Cos\u2019\u00e8 un modello parsimonioso? - Statorials","description":"Una semplice spiegazione dei modelli parsimoniosi, inclusa una definizione ed un esempio.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/modello-parsimonioso\/","og_locale":"it_IT","og_type":"article","og_title":"Cos\u2019\u00e8 un modello parsimonioso? - Statorials","og_description":"Una semplice spiegazione dei modelli parsimoniosi, inclusa una definizione ed un esempio.","og_url":"https:\/\/statorials.org\/it\/modello-parsimonioso\/","og_site_name":"Statorials","article_published_time":"2023-07-27T21:50:46+00:00","author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"4 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/modello-parsimonioso\/","url":"https:\/\/statorials.org\/it\/modello-parsimonioso\/","name":"Cos\u2019\u00e8 un modello parsimonioso? - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T21:50:46+00:00","dateModified":"2023-07-27T21:50:46+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Una semplice spiegazione dei modelli parsimoniosi, inclusa una definizione ed un esempio.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/modello-parsimonioso\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/modello-parsimonioso\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/modello-parsimonioso\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Cos\u2019\u00e8 un modello parsimonioso?"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1035"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1035"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1035\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1035"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1035"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1035"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}