{"id":1214,"date":"2023-07-27T06:38:25","date_gmt":"2023-07-27T06:38:25","guid":{"rendered":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/"},"modified":"2023-07-27T06:38:25","modified_gmt":"2023-07-27T06:38:25","slug":"spline-di-regressione-adattativa-multivariata","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/","title":{"rendered":"Un&#39;introduzione alle spline di regressione adattativa multivariata"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Quando la relazione tra un insieme di variabili predittive e una <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> \u00e8 lineare, spesso possiamo utilizzare <a href=\"https:\/\/statorials.org\/it\/regressione-lineare-multipla\/\" target=\"_blank\" rel=\"noopener noreferrer\">la regressione lineare<\/a> , che<\/span> <span style=\"color: #000000;\">presuppone che la relazione tra una determinata variabile predittrice e una variabile di risposta assuma la forma:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X + \u03b5<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ma in pratica, la relazione tra le variabili potrebbe effettivamente essere non lineare e il tentativo di utilizzare la regressione lineare potrebbe risultare in un modello poco appropriato.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un modo per tenere conto di una relazione non lineare tra il predittore e la variabile di risposta \u00e8 utilizzare <a href=\"https:\/\/statorials.org\/it\/regressione-polinomiale-1\/\" target=\"_blank\" rel=\"noopener noreferrer\">la regressione polinomiale<\/a> , che assume la forma:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Y = \u03b2 <sub>0<\/sub> <sup>+<\/sup> \u03b2 <sub>1<\/sub> X + \u03b2 <sub>2<\/sub> X <sup>2<\/sup> + \u2026 + \u03b2 <sub>h<\/sub><\/span><\/p>\n<p> <span style=\"color: #000000;\">In questa equazione <em>h<\/em> \u00e8 chiamato \u201cgrado\u201d del polinomio. Aumentando il valore di <em>h<\/em> , il modello diventa pi\u00f9 flessibile ed \u00e8 in grado di adattarsi a dati non lineari.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><span style=\"color: #000000;\">Tuttavia, la regressione polinomiale presenta alcuni inconvenienti:<\/span><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> La regressione polinomiale pu\u00f2 facilmente <a href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">adattarsi<\/a> a un set di dati se il grado <em>h<\/em> viene scelto troppo grande. In pratica, <em>h<\/em> \u00e8 raramente maggiore di 3 o 4 perch\u00e9 oltre quel punto corrisponde semplicemente al rumore di un set di addestramento e non si generalizza bene ai dati invisibili.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><b>2.<\/b> La regressione polinomiale impone una funzione globale sull&#8217;intero set di dati, che non \u00e8 sempre precisa.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un&#8217;alternativa alla regressione polinomiale sono <strong>le spline di regressione adattativa multivariata<\/strong> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>L&#8217;idea di base<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Le spline di regressione adattativa multivariata funzionano come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Dividere un set di dati in <em>k<\/em> parti.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Innanzitutto, dividiamo un set di dati in <em>k<\/em> elementi diversi. I punti in cui dividiamo il dataset si chiamano <em>nodi<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Identifichiamo i nodi valutando ciascun punto per ciascun predittore come potenziale nodo e creando un modello di regressione lineare utilizzando le caratteristiche candidate. Il punto capace di ridurre il maggior numero di errori nel modello \u00e8 il nodo.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Una volta identificato il primo nodo, ripetiamo il processo per trovare altri nodi. Puoi trovare tutti i nodi che ritieni ragionevoli per iniziare.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Adattare una funzione di regressione a ciascuna parte per formare una funzione cerniera.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Una volta scelti i nodi e adattato un modello di regressione a ciascun elemento nel set di dati, ci ritroviamo con quella che viene chiamata <em>funzione cerniera<\/em> , indicata con <em>h(xa)<\/em> , dove <em>a<\/em> \u00e8 la soglia del valore.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ad esempio, la funzione cerniera per un modello a un nodo potrebbe essere:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (4,3 \u2013 x) se x &lt; 4,3<\/span><\/li>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (x \u2013 4,3) se x &gt; 4,3<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In questo caso, \u00e8 stato stabilito che la scelta di <strong>4.3<\/strong> come valore di soglia consentiva la massima riduzione dell&#8217;errore tra tutti i possibili valori di soglia. Quindi adattiamo un modello di regressione diverso ai valori inferiori a 4,3 rispetto ai valori superiori a 4,3.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Una funzione cerniera con due nodi pu\u00f2 essere la seguente:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (4,3 \u2013 x) se x &lt; 4,3<\/span><\/li>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (x \u2013 4,3) se x &gt; 4,3 &amp; x &lt; 6,7<\/span><\/li>\n<li> <span style=\"color: #000000;\">y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> (6,7 \u2013 x) se x &gt; 6,7<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">In questo caso, \u00e8 stato stabilito che la scelta di <strong>4.3<\/strong> e <strong>6.7<\/strong> come valori di soglia consentiva la massima riduzione dell\u2019errore tra tutti i possibili valori di soglia. Quindi adattiamo un modello di regressione a valori inferiori a 4,3, un altro modello di regressione a valori compresi tra 4,3 e 6,7 e un altro modello di regressione a valori superiori a 4,3.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Scegli <em>k<\/em> in base alla convalida incrociata k-fold.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Infine, una volta adattati diversi modelli diversi utilizzando un numero diverso di nodi per ciascun modello, possiamo eseguire <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">una convalida incrociata k-fold<\/a> per identificare il modello che produce l&#8217;errore quadratico medio (MSE) pi\u00f9 basso del test.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il modello con il test MSE pi\u00f9 basso viene scelto come modello che meglio generalizza ai nuovi dati.<\/span><\/p>\n<h3> <strong><span style=\"color: #000000;\">Vantaggi e svantaggi<\/span><\/strong><\/h3>\n<p> <span style=\"color: #000000;\">Le spline di regressione adattativa multivariata presentano i seguenti vantaggi e svantaggi:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Vantaggi<\/strong> :<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Pu\u00f2 essere utilizzato sia per <a href=\"https:\/\/statorials.org\/it\/regressione-vs.-classificazione\/\" target=\"_blank\" rel=\"noopener noreferrer\">problemi di regressione che di classificazione<\/a> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Funziona bene su set di dati di grandi dimensioni.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Offre calcoli rapidi.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Ci\u00f2 non richiede la standardizzazione delle variabili predittive.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>Gli svantaggi:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Tende a non funzionare altrettanto bene dei metodi non lineari come foreste casuali e macchine per l&#8217;incremento del gradiente.<\/span><\/li>\n<\/ul>\n<h3> <strong><span style=\"color: #000000;\">Come adattare i modelli MARS in R e Python<\/span><\/strong><\/h3>\n<p> <span style=\"color: #000000;\">I seguenti tutorial forniscono esempi passo passo di come adattare le spline di regressione adattiva multivariata (MARS) in R e Python:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Spline di regressione adattiva multivariata in R<\/a><br \/> Spline di regressione adattiva multivariata in Python<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Quando la relazione tra un insieme di variabili predittive e una variabile di risposta \u00e8 lineare, spesso possiamo utilizzare la regressione lineare , che presuppone che la relazione tra una determinata variabile predittrice e una variabile di risposta assuma la forma: Y = \u03b2 0 + \u03b2 1 X + \u03b5 Ma in pratica, la [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Un&#039;introduzione alle spline di regressione adattativa multivariata<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce un&#039;introduzione alle spline di regressione adattiva multivariata (MARS), una tecnica di regressione comune nell&#039;apprendimento automatico.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Un&#039;introduzione alle spline di regressione adattativa multivariata\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce un&#039;introduzione alle spline di regressione adattiva multivariata (MARS), una tecnica di regressione comune nell&#039;apprendimento automatico.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T06:38:25+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/\",\"url\":\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/\",\"name\":\"Un&#39;introduzione alle spline di regressione adattativa multivariata\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T06:38:25+00:00\",\"dateModified\":\"2023-07-27T06:38:25+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce un&#39;introduzione alle spline di regressione adattiva multivariata (MARS), una tecnica di regressione comune nell&#39;apprendimento automatico.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Un&#39;introduzione alle spline di regressione adattativa multivariata\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Un&#39;introduzione alle spline di regressione adattativa multivariata","description":"Questo tutorial fornisce un&#39;introduzione alle spline di regressione adattiva multivariata (MARS), una tecnica di regressione comune nell&#39;apprendimento automatico.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/","og_locale":"it_IT","og_type":"article","og_title":"Un&#39;introduzione alle spline di regressione adattativa multivariata","og_description":"Questo tutorial fornisce un&#39;introduzione alle spline di regressione adattiva multivariata (MARS), una tecnica di regressione comune nell&#39;apprendimento automatico.","og_url":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/","og_site_name":"Statorials","article_published_time":"2023-07-27T06:38:25+00:00","author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"3 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/","url":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/","name":"Un&#39;introduzione alle spline di regressione adattativa multivariata","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T06:38:25+00:00","dateModified":"2023-07-27T06:38:25+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce un&#39;introduzione alle spline di regressione adattiva multivariata (MARS), una tecnica di regressione comune nell&#39;apprendimento automatico.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/spline-di-regressione-adattativa-multivariata\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Un&#39;introduzione alle spline di regressione adattativa multivariata"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1214"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1214"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1214\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1214"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1214"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1214"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}