{"id":1196,"date":"2023-07-27T08:09:52","date_gmt":"2023-07-27T08:09:52","guid":{"rendered":"https:\/\/statorials.org\/it\/regressione-al-lazo\/"},"modified":"2023-07-27T08:09:52","modified_gmt":"2023-07-27T08:09:52","slug":"regressione-al-lazo","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/regressione-al-lazo\/","title":{"rendered":"Introduzione alla regressione lazo"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Nella <a href=\"https:\/\/statorials.org\/it\/regressione-lineare-multipla\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressione lineare multipla<\/a> ordinaria, utilizziamo un insieme di variabili predittive <em>p<\/em> e una <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> per adattare un modello della forma:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X <sub>1<\/sub> <sub>+<\/sub> \u03b2 <sub>2<\/sub> X <sub>2<\/sub> + \u2026 + \u03b2 <sub>p<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Y<\/strong> : la variabile di risposta<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>X <sub>j<\/sub><\/strong> : la j- <sup>esima<\/sup> variabile predittiva<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b2 <sub>j<\/sub><\/strong> : L&#8217;effetto medio su Y di un aumento di un&#8217;unit\u00e0 in X <sub>j<\/sub> , mantenendo fissi tutti gli altri predittori<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b5<\/strong> : Il termine di errore<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">I valori di \u03b2 <sub>0<\/sub> , \u03b2 <sub>1<\/sub> , B <sub>2<\/sub> , \u2026, \u03b2 <sub>p<\/sub> vengono scelti utilizzando <strong>il metodo dei minimi quadrati<\/strong> , che minimizza la somma dei quadrati dei residui (RSS):<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : simbolo greco che significa <em>somma<\/em><\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : il valore di risposta effettivo per l&#8217; <sup>i-esima<\/sup> osservazione<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : il valore di risposta previsto basato sul modello di regressione lineare multipla<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Tuttavia, quando le variabili predittive sono altamente correlate, <a href=\"https:\/\/statorials.org\/it\/regressione-multicollinearita\/\" target=\"_blank\" rel=\"noopener noreferrer\">la multicollinearit\u00e0<\/a> pu\u00f2 diventare un problema. Ci\u00f2 pu\u00f2 rendere inaffidabili le stime dei coefficienti del modello e presentare una varianza elevata. Cio\u00e8, quando il modello viene applicato a un nuovo set di dati mai visto prima, \u00e8 probabile che funzioni in modo scarso.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un modo per aggirare questo problema \u00e8 utilizzare un metodo noto come <strong>regressione lazo<\/strong> , che cerca invece di ridurre al minimo quanto segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3|\u03b2 <sub>j<\/sub> |<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">dove <em>j<\/em> va da 1 a <em>p<\/em> e \u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo secondo termine nell&#8217;equazione \u00e8 noto come <em>penalit\u00e0 di ritiro<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando \u03bb = 0, questo termine di penalit\u00e0 non ha alcun effetto e la regressione al lazo produce le stesse stime dei coefficienti dei minimi quadrati.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, quando \u03bb si avvicina all\u2019infinito, la penalit\u00e0 di rimozione diventa pi\u00f9 influente e le variabili predittive che non sono importabili nel modello vengono ridotte a zero e alcune vengono addirittura rimosse dal modello.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Perch\u00e9 utilizzare la regressione Lazo?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Il vantaggio della regressione con lazo rispetto alla regressione dei minimi quadrati \u00e8 il <a href=\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\" target=\"_blank\" rel=\"noopener noreferrer\">compromesso bias-varianza<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ricordiamo che l&#8217;errore quadratico medio (MSE) \u00e8 una metrica che possiamo utilizzare per misurare l&#8217;accuratezza di un determinato modello e viene calcolata come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Varianza + Bias <sup>2<\/sup> + Errore irriducibile<\/span><\/p>\n<p> <span style=\"color: #000000;\">L\u2019idea di base della regressione lazo \u00e8 quella di introdurre una piccola distorsione in modo che la varianza possa essere significativamente ridotta, portando a un MSE complessivo inferiore.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per illustrare ci\u00f2, si consideri il seguente grafico:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11851 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" alt=\"Compromesso tra bias e varianza della regressione Ridge\" width=\"468\" height=\"341\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Si noti che all\u2019aumentare di \u03bb, la varianza diminuisce in modo significativo con un aumento molto piccolo della distorsione. Tuttavia, oltre un certo punto, la varianza diminuisce meno rapidamente e la diminuzione dei coefficienti porta ad una loro significativa sottostima, che porta ad un forte aumento della distorsione.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Possiamo vedere dal grafico che l&#8217;MSE del test \u00e8 pi\u00f9 basso quando scegliamo un valore per \u03bb che produca un compromesso ottimale tra bias e varianza.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando \u03bb = 0, il termine di penalit\u00e0 nella regressione con lazo non ha alcun effetto e quindi produce le stesse stime dei coefficienti dei minimi quadrati. Tuttavia, aumentando \u03bb fino a un certo punto, possiamo ridurre l\u2019MSE complessivo del test.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11874 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/lasso1.png\" alt=\"Compromesso tra bias e varianza della regressione lazo\" width=\"490\" height=\"357\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Ci\u00f2 significa che l&#8217;adattamento del modello mediante la regressione con lazo produrr\u00e0 errori di test minori rispetto all&#8217;adattamento del modello mediante la regressione dei minimi quadrati.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regressione lazo vs regressione Ridge<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">La regressione Lazo e <a href=\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\" target=\"_blank\" rel=\"noopener noreferrer\">la regressione Ridge<\/a> sono entrambi noti come <em>metodi di regolarizzazione<\/em> perch\u00e9 entrambi tentano di ridurre al minimo la somma residua dei quadrati (RSS) nonch\u00e9 un determinato termine di penalit\u00e0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In altre parole, vincolano o <em>regolarizzano<\/em> le stime dei coefficienti del modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, i termini di penalit\u00e0 utilizzati sono leggermente diversi:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">La regressione al lazo tenta di minimizzare <strong>RSS + \u03bb\u03a3|\u03b2 <sub>j<\/sub> |<\/strong><\/span><\/li>\n<li> <span style=\"color: #000000;\">La regressione della cresta tenta di minimizzare <strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Quando utilizziamo la regressione ridge, i coefficienti di ciascun predittore vengono ridotti a zero ma nessuno di essi pu\u00f2 arrivare <em>completamente a zero<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Al contrario, quando usiamo la regressione con lazo, \u00e8 possibile che alcuni coefficienti diventino <em>completamente pari a zero<\/em> quando \u03bb diventa sufficientemente grande.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In termini tecnici, la regressione lazo \u00e8 in grado di produrre modelli \u201csparsi\u201d, ovvero modelli che includono solo un sottoinsieme di variabili predittive.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ci\u00f2 solleva la domanda: <strong>\u00e8 migliore la regressione della cresta o la regressione del lazo?<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">La risposta: dipende!<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nei casi in cui solo un numero limitato di variabili predittive sono significative, la regressione lazo tende a funzionare meglio perch\u00e9 \u00e8 in grado di ridurre completamente a zero le variabili insignificanti e rimuoverle dal modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, quando molte variabili predittive sono significative nel modello e i relativi coefficienti sono approssimativamente uguali, la regressione ridge tende a funzionare meglio perch\u00e9 mantiene tutti i predittori nel modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per determinare quale modello \u00e8 pi\u00f9 efficace nel fare previsioni, eseguiamo <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">una convalida incrociata k-fold<\/a> . Qualunque modello produca l&#8217;errore quadratico medio (MSE) pi\u00f9 basso \u00e8 il modello migliore da utilizzare.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Passaggi per eseguire nella pratica una regressione con il lazo<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">\u00c8 possibile utilizzare i seguenti passaggi per eseguire una regressione lazo:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 1: calcolare la matrice di correlazione e i valori VIF per le variabili predittive.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Innanzitutto, dobbiamo produrre una <a href=\"https:\/\/statorials.org\/it\/come-leggere-una-matrice-di-correlazione\/\" target=\"_blank\" rel=\"noopener noreferrer\">matrice di correlazione<\/a> e calcolare i <a href=\"https:\/\/statorials.org\/it\/regressione-multicollinearita\/\" target=\"_blank\" rel=\"noopener noreferrer\">valori VIF (fattore di inflazione della varianza)<\/a> per ciascuna variabile predittrice.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Se rileviamo una forte correlazione tra le variabili predittive e valori VIF elevati (alcuni testi definiscono un valore VIF &#8220;alto&#8221; come 5 mentre altri usano 10), allora la regressione lazo \u00e8 probabilmente appropriata.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, se nei dati non \u00e8 presente multicollinearit\u00e0, potrebbe non essere necessario eseguire innanzitutto la regressione lazo. Invece, possiamo eseguire la regressione ordinaria dei minimi quadrati.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 2: adattare il modello di regressione lazo e scegliere un valore per \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Una volta determinato che la regressione lazo \u00e8 appropriata, possiamo adattare il modello (utilizzando linguaggi di programmazione popolari come R o Python) utilizzando il valore ottimale per \u03bb.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per determinare il valore ottimale per \u03bb, possiamo adattare pi\u00f9 modelli utilizzando valori diversi per \u03bb e scegliere \u03bb come valore che produce il test MSE pi\u00f9 basso.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 3: confrontare la regressione con lazo con la regressione di cresta e con la regressione dei minimi quadrati ordinari.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Infine, possiamo confrontare il nostro modello di regressione lazo con un modello di regressione ridge e un modello di regressione dei minimi quadrati per determinare quale modello produce il test MSE pi\u00f9 basso utilizzando la convalida incrociata k-fold.<\/span><\/p>\n<p> <span style=\"color: #000000;\">A seconda della relazione tra le variabili predittive e la variabile di risposta, \u00e8 del tutto possibile che uno di questi tre modelli superi gli altri in scenari diversi.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regressione lazo in R e Python<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">I seguenti tutorial spiegano come eseguire la regressione lazo in R e Python:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/it\/regressione-al-lazo-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione lazo in R (passo dopo passo)<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\/regressione-lazo-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione lazo in Python (passo dopo passo)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nella regressione lineare multipla ordinaria, utilizziamo un insieme di variabili predittive p e una variabile di risposta per adattare un modello della forma: Y = \u03b2 0 + \u03b2 1 X 1 + \u03b2 2 X 2 + \u2026 + \u03b2 p Oro: Y : la variabile di risposta X j : la j- esima [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Introduzione alla regressione lazo - Statorials<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce un&#039;introduzione alla regressione lazo, inclusa una spiegazione ed esempi.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/regressione-al-lazo\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Introduzione alla regressione lazo - Statorials\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce un&#039;introduzione alla regressione lazo, inclusa una spiegazione ed esempi.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/regressione-al-lazo\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:09:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/regressione-al-lazo\/\",\"url\":\"https:\/\/statorials.org\/it\/regressione-al-lazo\/\",\"name\":\"Introduzione alla regressione lazo - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T08:09:52+00:00\",\"dateModified\":\"2023-07-27T08:09:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce un&#39;introduzione alla regressione lazo, inclusa una spiegazione ed esempi.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/regressione-al-lazo\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/regressione-al-lazo\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/regressione-al-lazo\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Introduzione alla regressione lazo\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Introduzione alla regressione lazo - Statorials","description":"Questo tutorial fornisce un&#39;introduzione alla regressione lazo, inclusa una spiegazione ed esempi.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/regressione-al-lazo\/","og_locale":"it_IT","og_type":"article","og_title":"Introduzione alla regressione lazo - Statorials","og_description":"Questo tutorial fornisce un&#39;introduzione alla regressione lazo, inclusa una spiegazione ed esempi.","og_url":"https:\/\/statorials.org\/it\/regressione-al-lazo\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:09:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png"}],"author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"5 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/regressione-al-lazo\/","url":"https:\/\/statorials.org\/it\/regressione-al-lazo\/","name":"Introduzione alla regressione lazo - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T08:09:52+00:00","dateModified":"2023-07-27T08:09:52+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce un&#39;introduzione alla regressione lazo, inclusa una spiegazione ed esempi.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/regressione-al-lazo\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/regressione-al-lazo\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/regressione-al-lazo\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Introduzione alla regressione lazo"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1196"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1196"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1196\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1196"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1196"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1196"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}