{"id":1224,"date":"2023-07-27T05:47:13","date_gmt":"2023-07-27T05:47:13","guid":{"rendered":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/"},"modified":"2023-07-27T05:47:13","modified_gmt":"2023-07-27T05:47:13","slug":"esercitazioni-casuali","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/","title":{"rendered":"Una semplice introduzione alle foreste casuali"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Quando la relazione tra un insieme di variabili predittive e una <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> \u00e8 molto complessa, spesso utilizziamo metodi non lineari per modellare la relazione tra loro.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Uno di questi metodi sono <a href=\"https:\/\/statorials.org\/it\/alberi-di-classificazione-e-regressione\/\" target=\"_blank\" rel=\"noopener noreferrer\">gli alberi di classificazione e regressione<\/a> (spesso abbreviati CART), che utilizzano un insieme di variabili predittive per creare <em>alberi decisionali<\/em> che prevedono il valore di una variabile di risposta.<\/span> <\/p>\n<figure id=\"attachment_12094\" aria-describedby=\"caption-attachment-12094\" style=\"width: 453px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" loading=\"lazy\" class=\"wp-image-12094\" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" alt=\"\" width=\"453\" height=\"347\" srcset=\"\" sizes=\"\"><figcaption id=\"caption-attachment-12094\" class=\"wp-caption-text\"> <strong><span style=\"color: #000000;\">Esempio di un albero di regressione che utilizza anni di esperienza e fuoricampo medi per prevedere lo stipendio di un giocatore di baseball professionista.<\/span><\/strong><\/figcaption><\/figure>\n<p> <span style=\"color: #000000;\">Il vantaggio degli alberi decisionali \u00e8 che sono facili da interpretare e visualizzare. Il problema \u00e8 che tendono a soffrire di <a href=\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\" target=\"_blank\" rel=\"noopener noreferrer\">una varianza elevata<\/a> . Cio\u00e8, se dividiamo un set di dati in due met\u00e0 e applichiamo un albero decisionale a entrambe le met\u00e0, i risultati potrebbero essere molto diversi.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un modo per ridurre la varianza degli alberi decisionali \u00e8 utilizzare un metodo noto come <a href=\"https:\/\/statorials.org\/it\/apprendimento-automatico-delle-buste\/\" target=\"_blank\" rel=\"noopener noreferrer\">bagging<\/a> , che funziona come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Prendi <em>b<\/em> campioni bootstrap dal set di dati originale.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Creare un albero decisionale per ciascun campione di bootstrap.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Media delle previsioni di ciascun albero per ottenere un modello finale.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il vantaggio di questo approccio \u00e8 che un modello cluster generalmente fornisce un miglioramento nel tasso di errore del test rispetto a un singolo albero decisionale.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Lo svantaggio \u00e8 che le previsioni derivanti dalla raccolta di alberi in sacchi possono essere altamente correlate se nel set di dati \u00e8 presente un predittore molto forte.<\/span> <span style=\"color: #000000;\">In questo caso, la maggior parte o tutti gli alberi inseriti utilizzeranno questo predittore per la prima suddivisione, risultando in alberi simili tra loro e con previsioni altamente correlate.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Pertanto, quando calcoliamo la media delle previsioni di ciascun albero per arrivare a un modello finale, \u00e8 possibile che questo modello non riduca effettivamente la varianza rispetto a un singolo albero decisionale.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un modo per aggirare questo problema \u00e8 utilizzare un metodo noto come <strong>foreste casuali<\/strong> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Cosa sono le foreste casuali?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Similmente al bagging, anche le foreste casuali prelevano <em>campioni<\/em> bootstrap da un set di dati originale.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, quando si costruisce un albero decisionale per ciascun campione bootstrap, ogni volta che viene considerata una suddivisione in un albero, solo un campione casuale di <em>m<\/em> predittori viene considerato candidato alla suddivisione nell&#8217;intero set di <em>p<\/em> predittori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quindi ecco il metodo completo utilizzato dalle foreste casuali per creare un modello:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Prendi <em>b<\/em> campioni bootstrap dal set di dati originale.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Creare un albero decisionale per ciascun campione di bootstrap.<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Quando si costruisce l&#8217;albero, ogni volta che viene considerata una suddivisione, solo un campione casuale di <em>m<\/em> predittori viene considerato candidato alla suddivisione dall&#8217;intero set di <em>p<\/em> predittori.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Media delle previsioni di ciascun albero per ottenere un modello finale.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Utilizzando questo metodo, la raccolta di alberi in una foresta casuale viene <strong>decorata<\/strong> rispetto agli alberi prodotti dall&#8217;insaccamento.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Pertanto, quando prendiamo le previsioni medie di ciascun albero per arrivare a un modello finale, questo tende ad avere meno variabilit\u00e0 e si traduce in un tasso di errore di test inferiore rispetto a un modello confezionato.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando si utilizzano foreste casuali, generalmente consideriamo i predittori <em>m<\/em> = \u221a <em>p<\/em> come candidati divisi ogni volta che si divide un albero decisionale.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ad esempio, se abbiamo <em>p<\/em> = 16 predittori in totale in un set di dati, generalmente consideriamo solo <em>m<\/em> = \u221a16 = 4 predittori come potenziali candidati per ciascuna suddivisione.<\/span><\/p>\n<blockquote>\n<p> <span style=\"color: #000000;\"><strong>Nota tecnica:<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">\u00c8 interessante notare che se scegliamo <em>m<\/em> = <em>p<\/em> (cio\u00e8 consideriamo tutti i predittori come candidati ad ogni suddivisione), ci\u00f2 equivale semplicemente a utilizzare il bagging.<\/span><\/p>\n<\/blockquote>\n<h3> <span style=\"color: #000000;\"><strong>Stima degli errori di out-of-bag<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Analogamente al bagging, possiamo calcolare l&#8217;errore di testing di un modello di foresta casuale utilizzando <strong>la stima out-of-bag<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Si pu\u00f2 dimostrare che ciascun campione bootstrap contiene circa 2\/3 delle osservazioni del set di dati originale. Il restante terzo delle osservazioni non utilizzate per adattare l&#8217;albero \u00e8 chiamato <strong>osservazioni out-of-bag (OOB)<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Possiamo prevedere il valore dell&#8217;i-esima osservazione nel set di dati originale prendendo la previsione media da ciascuno degli alberi in cui l&#8217;osservazione era OOB.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Possiamo utilizzare questo approccio per fare una previsione per tutte <em>le n<\/em> osservazioni nel set di dati originale e quindi calcolare un tasso di errore, che \u00e8 una stima valida dell&#8217;errore del test.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il vantaggio di utilizzare questo approccio per stimare l&#8217;errore del test \u00e8 che \u00e8 molto pi\u00f9 veloce della <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">convalida incrociata k-fold<\/a> , soprattutto quando il set di dati \u00e8 di grandi dimensioni.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong><span style=\"color: #000000;\">I vantaggi e gli svantaggi delle foreste casuali<\/span><\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Le foreste casuali offrono i seguenti <strong>vantaggi<\/strong> :<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Nella maggior parte dei casi, le foreste casuali offriranno un miglioramento della precisione rispetto ai modelli confezionati e soprattutto rispetto agli alberi decisionali singoli.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Le foreste casuali sono resistenti ai valori anomali.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Non \u00e8 necessaria alcuna preelaborazione per utilizzare foreste casuali.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Tuttavia, le foreste casuali presentano i <strong>seguenti potenziali svantaggi:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Sono difficili da interpretare.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Possono essere computazionalmente intensivi (cio\u00e8 lenti) per attingere a grandi insiemi di dati.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In pratica, i data scientist utilizzano in genere foreste casuali per massimizzare l\u2019accuratezza predittiva, quindi il fatto che non siano facilmente interpretabili di solito non \u00e8 un problema.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Quando la relazione tra un insieme di variabili predittive e una variabile di risposta \u00e8 molto complessa, spesso utilizziamo metodi non lineari per modellare la relazione tra loro. Uno di questi metodi sono gli alberi di classificazione e regressione (spesso abbreviati CART), che utilizzano un insieme di variabili predittive per creare alberi decisionali che prevedono [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Una semplice introduzione alle foreste casuali<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce una semplice introduzione alle foreste casuali, un metodo popolare nell&#039;apprendimento automatico.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/esercitazioni-casuali\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Una semplice introduzione alle foreste casuali\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce una semplice introduzione alle foreste casuali, un metodo popolare nell&#039;apprendimento automatico.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/esercitazioni-casuali\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T05:47:13+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/esercitazioni-casuali\/\",\"url\":\"https:\/\/statorials.org\/it\/esercitazioni-casuali\/\",\"name\":\"Una semplice introduzione alle foreste casuali\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T05:47:13+00:00\",\"dateModified\":\"2023-07-27T05:47:13+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce una semplice introduzione alle foreste casuali, un metodo popolare nell&#39;apprendimento automatico.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/esercitazioni-casuali\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/esercitazioni-casuali\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/esercitazioni-casuali\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Una semplice introduzione alle foreste casuali\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Una semplice introduzione alle foreste casuali","description":"Questo tutorial fornisce una semplice introduzione alle foreste casuali, un metodo popolare nell&#39;apprendimento automatico.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/","og_locale":"it_IT","og_type":"article","og_title":"Una semplice introduzione alle foreste casuali","og_description":"Questo tutorial fornisce una semplice introduzione alle foreste casuali, un metodo popolare nell&#39;apprendimento automatico.","og_url":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/","og_site_name":"Statorials","article_published_time":"2023-07-27T05:47:13+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png"}],"author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"4 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/","url":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/","name":"Una semplice introduzione alle foreste casuali","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T05:47:13+00:00","dateModified":"2023-07-27T05:47:13+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce una semplice introduzione alle foreste casuali, un metodo popolare nell&#39;apprendimento automatico.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/esercitazioni-casuali\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/esercitazioni-casuali\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Una semplice introduzione alle foreste casuali"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1224"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1224"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1224\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1224"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1224"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1224"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}