{"id":1149,"date":"2023-07-27T12:12:52","date_gmt":"2023-07-27T12:12:52","guid":{"rendered":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/"},"modified":"2023-07-27T12:12:52","modified_gmt":"2023-07-27T12:12:52","slug":"compromesso-della-varianza-del-bias","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/","title":{"rendered":"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Per valutare le prestazioni di un modello su un set di dati, dobbiamo misurare quanto bene le previsioni del modello corrispondono ai dati osservati.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per <a href=\"https:\/\/statorials.org\/it\/regressione-vs.-classificazione\/\" target=\"_blank\" rel=\"noopener noreferrer\">i modelli di regressione<\/a> , la metrica pi\u00f9 comunemente utilizzata \u00e8 l&#8217;errore quadratico medio (MSE), calcolato come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = (1\/n)*\u03a3(y <sub>i<\/sub> \u2013 f(x <sub>i<\/sub> )) <sup>2<\/sup><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> numero totale di osservazioni<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub> :<\/strong> il valore di risposta dell&#8217;i <sup>-esima<\/sup> osservazione<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>f( <sub>xi<\/sub> ):<\/strong> Il valore di risposta previsto dell&#8217;i- <sup>esima<\/sup> osservazione<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Pi\u00f9 le previsioni del modello si avvicinano alle osservazioni, pi\u00f9 basso sar\u00e0 il MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, ci preoccupiamo solo <strong>del test MSE<\/strong> : l\u2019MSE quando il nostro modello viene applicato a dati invisibili. Questo perch\u00e9 ci interessa solo come funzioner\u00e0 il modello su dati sconosciuti, non su dati esistenti.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ad esempio, va bene se un modello che prevede i prezzi delle azioni ha un MSE basso sui dati storici, ma vogliamo <em>davvero<\/em> essere in grado di utilizzare il modello per prevedere con precisione i dati futuri.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Risulta che il test MSE pu\u00f2 ancora essere suddiviso in due parti:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Varianza:<\/strong> si riferisce all&#8217;importo che la nostra funzione <em>f<\/em> cambierebbe se la stimassimo utilizzando un set di addestramento diverso.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Bias:<\/strong> si riferisce all&#8217;errore introdotto affrontando un problema reale, che pu\u00f2 essere estremamente complicato, con un modello molto pi\u00f9 semplice.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Scritto in termini matematici:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Test MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">Test MSE = Varianza + Bias <sup>2<\/sup> + Errore irriducibile<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il terzo termine, l\u2019errore irriducibile, \u00e8 l\u2019errore che non pu\u00f2 essere ridotto da nessun modello semplicemente perch\u00e9 c\u2019\u00e8 sempre <em>rumore<\/em> nella relazione tra l\u2019insieme delle variabili esplicative e la <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">I modelli che hanno <strong>una distorsione elevata<\/strong> tendono ad avere <strong>una varianza bassa<\/strong> . Ad esempio, i modelli di regressione lineare tendono ad avere una distorsione elevata (assumendo una semplice relazione lineare tra le variabili esplicative e la variabile di risposta) e una varianza bassa (le stime del modello non cambieranno molto da campione a campione). l&#8217;altro).<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, i modelli con <strong>bias basso<\/strong> tendono ad avere <strong>una varianza elevata<\/strong> . Ad esempio, i modelli non lineari complessi tendono ad avere una distorsione bassa (non assumere una certa relazione tra le variabili esplicative e la variabile di risposta) con una varianza elevata (le stime del modello possono cambiare significativamente da un campione di apprendimento a un altro).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Il compromesso bias-varianza<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\"><strong>Il compromesso bias-varianza<\/strong> si riferisce al compromesso che avviene quando scegliamo di ridurre la distorsione, che generalmente aumenta la varianza, o di ridurre la varianza, che generalmente aumenta la distorsione.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il grafico seguente offre un modo per visualizzare questo compromesso:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11515 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" alt=\"Compromesso tra bias e varianza\" width=\"551\" height=\"400\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">L&#8217;errore totale diminuisce all&#8217;aumentare della complessit\u00e0 del modello, ma solo fino a un certo punto. Oltre un certo punto, la varianza inizia ad aumentare e anche l\u2019errore totale inizia ad aumentare.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In pratica, ci preoccupiamo solo di minimizzare l\u2019errore totale di un modello, non necessariamente di minimizzare la varianza o la distorsione.<\/span> <span style=\"color: #000000;\">Si scopre che il modo per ridurre al minimo l\u2019errore totale \u00e8 trovare il giusto equilibrio tra varianza e distorsione.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In altre parole, vogliamo un modello abbastanza complesso da catturare la vera relazione tra le variabili esplicative e la variabile di risposta, ma non troppo complesso da individuare modelli che in realt\u00e0 non esistono.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando un modello \u00e8 troppo complesso, si <a href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>adatta eccessivamente<\/strong><\/a> ai dati. Ci\u00f2 accade perch\u00e9 \u00e8 troppo difficile trovare modelli nei dati di addestramento che siano semplicemente causati dal caso. \u00c8 probabile che questo tipo di modello abbia prestazioni scarse su dati invisibili.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ma quando un modello \u00e8 troppo semplice, <strong>sottostima<\/strong> i dati. Ci\u00f2 accade perch\u00e9 si presuppone che la vera relazione tra le variabili esplicative e la variabile di risposta sia pi\u00f9 semplice di quanto non sia in realt\u00e0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il modo per selezionare modelli ottimali nell&#8217;apprendimento automatico \u00e8 trovare un equilibrio tra bias e varianza per ridurre al minimo l&#8217;errore di testare il modello su dati futuri invisibili.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In pratica, il modo pi\u00f9 comune per ridurre al minimo l\u2019MSE dei test \u00e8 utilizzare <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">la convalida incrociata<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Per valutare le prestazioni di un modello su un set di dati, dobbiamo misurare quanto bene le previsioni del modello corrispondono ai dati osservati. Per i modelli di regressione , la metrica pi\u00f9 comunemente utilizzata \u00e8 l&#8217;errore quadratico medio (MSE), calcolato come segue: MSE = (1\/n)*\u03a3(y i \u2013 f(x i )) 2 Oro: n: numero [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Qual \u00e8 il compromesso tra bias e varianza nel machine learning?<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce una spiegazione del compromesso bias-varianza nell&#039;apprendimento automatico, inclusi esempi.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce una spiegazione del compromesso bias-varianza nell&#039;apprendimento automatico, inclusi esempi.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T12:12:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\",\"url\":\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\",\"name\":\"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T12:12:52+00:00\",\"dateModified\":\"2023-07-27T12:12:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce una spiegazione del compromesso bias-varianza nell&#39;apprendimento automatico, inclusi esempi.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?","description":"Questo tutorial fornisce una spiegazione del compromesso bias-varianza nell&#39;apprendimento automatico, inclusi esempi.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/","og_locale":"it_IT","og_type":"article","og_title":"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?","og_description":"Questo tutorial fornisce una spiegazione del compromesso bias-varianza nell&#39;apprendimento automatico, inclusi esempi.","og_url":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/","og_site_name":"Statorials","article_published_time":"2023-07-27T12:12:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png"}],"author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"3 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/","url":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/","name":"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T12:12:52+00:00","dateModified":"2023-07-27T12:12:52+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce una spiegazione del compromesso bias-varianza nell&#39;apprendimento automatico, inclusi esempi.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Qual \u00e8 il compromesso tra bias e varianza nel machine learning?"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1149"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1149"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1149\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1149"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1149"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1149"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}