{"id":1193,"date":"2023-07-27T08:26:08","date_gmt":"2023-07-27T08:26:08","guid":{"rendered":"https:\/\/statorials.org\/it\/regressione-della-cresta\/"},"modified":"2023-07-27T08:26:08","modified_gmt":"2023-07-27T08:26:08","slug":"regressione-della-cresta","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/regressione-della-cresta\/","title":{"rendered":"Introduzione alla regressione della cresta"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Nella <a href=\"https:\/\/statorials.org\/it\/regressione-lineare-multipla\/\" target=\"_blank\" rel=\"noopener noreferrer\">regressione lineare multipla<\/a> ordinaria, utilizziamo un insieme di variabili predittive <em>p<\/em> e una <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> per adattare un modello della forma:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X <sub>1<\/sub> <sub>+<\/sub> \u03b2 <sub>2<\/sub> X <sub>2<\/sub> + \u2026 + \u03b2 <sub>p<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Y<\/strong> : la variabile di risposta<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>X <sub>j<\/sub><\/strong> : la j- <sup>esima<\/sup> variabile predittiva<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b2 <sub>j<\/sub><\/strong> : L&#8217;effetto medio su Y di un aumento di un&#8217;unit\u00e0 in X <sub>j<\/sub> , mantenendo fissi tutti gli altri predittori<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b5<\/strong> : Il termine di errore<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">I valori di \u03b2 <sub>0<\/sub> , \u03b2 <sub>1<\/sub> , B <sub>2<\/sub> , \u2026, \u03b2 <sub>p<\/sub> vengono scelti utilizzando <strong>il metodo dei minimi quadrati<\/strong> , che minimizza la somma dei quadrati dei residui (RSS):<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : simbolo greco che significa <em>somma<\/em><\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : il valore di risposta effettivo per l&#8217; <sup>i-esima<\/sup> osservazione<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : il valore di risposta previsto basato sul modello di regressione lineare multipla<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Tuttavia, quando le variabili predittive sono altamente correlate, <a href=\"https:\/\/statorials.org\/it\/regressione-multicollinearita\/\" target=\"_blank\" rel=\"noopener noreferrer\">la multicollinearit\u00e0<\/a> pu\u00f2 diventare un problema. Ci\u00f2 pu\u00f2 rendere inaffidabili le stime dei coefficienti del modello e presentare una varianza elevata.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Un modo per aggirare questo problema senza rimuovere completamente alcune variabili predittive dal modello \u00e8 utilizzare un metodo noto come <strong>regressione ridge<\/strong> , che cerca invece di ridurre al minimo quanto segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">dove <em>j<\/em> va da 1 a <em>p<\/em> e<\/span> <span style=\"color: #000000;\">\u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo secondo termine nell&#8217;equazione \u00e8 noto come <em>penalit\u00e0 di ritiro<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando \u03bb = 0, questo termine di penalit\u00e0 non ha alcun effetto e la regressione della cresta produce le stesse stime dei coefficienti dei minimi quadrati. Tuttavia, quando \u03bb si avvicina all\u2019infinito, la penalit\u00e0 di contrazione diventa pi\u00f9 influente e le stime del coefficiente di regressione di picco si avvicinano allo zero.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In generale, le variabili predittive meno influenti nel modello diminuiranno verso lo zero pi\u00f9 velocemente.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Perch\u00e9 utilizzare la regressione della cresta?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Il vantaggio della regressione Ridge rispetto alla regressione dei minimi quadrati \u00e8 il <a href=\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\" target=\"_blank\" rel=\"noopener noreferrer\">compromesso bias-varianza<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ricordiamo che l&#8217;errore quadratico medio (MSE) \u00e8 una metrica che possiamo utilizzare per misurare l&#8217;accuratezza di un determinato modello e viene calcolata come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Varianza + Bias <sup>2<\/sup> + Errore irriducibile<\/span><\/p>\n<p> <span style=\"color: #000000;\">L\u2019idea di base della regressione Ridge \u00e8 quella di introdurre una piccola distorsione in modo che la varianza possa essere significativamente ridotta, portando a un MSE complessivo inferiore.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per illustrare ci\u00f2, si consideri il seguente grafico:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11851 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" alt=\"Compromesso tra bias e varianza della regressione Ridge\" width=\"468\" height=\"341\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Si noti che all\u2019aumentare di \u03bb, la varianza diminuisce in modo significativo con un aumento molto piccolo della distorsione. Tuttavia, oltre un certo punto, la varianza diminuisce meno rapidamente e la diminuzione dei coefficienti porta ad una loro significativa sottostima, che porta ad un forte aumento della distorsione.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Possiamo vedere dal grafico che l&#8217;MSE del test \u00e8 pi\u00f9 basso quando scegliamo un valore per \u03bb che produca un compromesso ottimale tra bias e varianza.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando \u03bb = 0, il termine di penalit\u00e0 nella regressione della cresta non ha alcun effetto e quindi produce le stesse stime dei coefficienti dei minimi quadrati. Tuttavia, aumentando \u03bb fino a un certo punto, possiamo ridurre l\u2019MSE complessivo del test.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11852 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete2.png\" alt=\"Test di regressione della cresta Riduzione MSE\" width=\"529\" height=\"378\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Ci\u00f2 significa che l&#8217;adattamento del modello mediante la regressione della cresta produrr\u00e0 errori di test minori rispetto all&#8217;adattamento del modello mediante la regressione dei minimi quadrati.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Passaggi per eseguire la regressione della cresta nella pratica<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">\u00c8 possibile utilizzare i seguenti passaggi per eseguire la regressione della cresta:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 1: calcolare la matrice di correlazione e i valori VIF per le variabili predittive.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Innanzitutto, dobbiamo produrre una <a href=\"https:\/\/statorials.org\/it\/come-leggere-una-matrice-di-correlazione\/\" target=\"_blank\" rel=\"noopener noreferrer\">matrice di correlazione<\/a> e calcolare i <a href=\"https:\/\/statorials.org\/it\/regressione-multicollinearita\/\" target=\"_blank\" rel=\"noopener noreferrer\">valori VIF (fattore di inflazione della varianza)<\/a> per ciascuna variabile predittrice.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Se rileviamo una forte correlazione tra le variabili predittive e valori VIF elevati (alcuni testi definiscono un valore VIF &#8220;alto&#8221; come 5 mentre altri usano 10), allora la regressione della cresta \u00e8 probabilmente appropriata.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, se nei dati non \u00e8 presente multicollinearit\u00e0, potrebbe non essere necessario eseguire innanzitutto la regressione della cresta. Invece, possiamo eseguire la regressione ordinaria dei minimi quadrati.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 2: standardizzare ciascuna variabile predittrice.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Prima di eseguire la regressione ridge, \u00e8 necessario ridimensionare i dati in modo tale che ciascuna variabile predittiva abbia una media pari a 0 e una deviazione standard pari a 1. Ci\u00f2 garantisce che nessuna singola variabile predittiva abbia un&#8217;influenza eccessiva durante l&#8217;esecuzione di una regressione ridge.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 3: adattare il modello di regressione della cresta e scegliere un valore per \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Non esiste una formula esatta che possiamo usare per determinare quale valore usare per \u03bb. In pratica, ci sono due modi comuni per scegliere \u03bb:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Creare un grafico della traccia della cresta.<\/strong> Questo \u00e8 un grafico che visualizza i valori dei coefficienti stimati all&#8217;aumentare di \u03bb verso l&#8217;infinito. Tipicamente, scegliamo \u03bb come il valore al quale la maggior parte delle stime dei coefficienti inizia a stabilizzarsi.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11853 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete3.png\" alt=\"Traccia della cresta\" width=\"539\" height=\"389\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Calcolare il test MSE per ciascun valore di \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Un altro modo per scegliere \u03bb \u00e8 semplicemente calcolare l&#8217;MSE di prova di ciascun modello con diversi valori di \u03bb e scegliere \u03bb come valore che produce l&#8217;MSE di prova pi\u00f9 basso.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Vantaggi e svantaggi della regressione della cresta<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Il <strong>vantaggio<\/strong> pi\u00f9 grande della regressione Ridge \u00e8 la sua capacit\u00e0 di produrre un errore quadratico medio (MSE) del test inferiore rispetto ai minimi quadrati quando \u00e8 presente la multicollinearit\u00e0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, il pi\u00f9 grande <strong>svantaggio<\/strong> della regressione Ridge \u00e8 la sua incapacit\u00e0 di eseguire la selezione delle variabili poich\u00e9 include tutte le variabili predittive nel modello finale. Poich\u00e9 alcuni predittori verranno ridotti molto vicino allo zero, ci\u00f2 pu\u00f2 rendere difficile l&#8217;interpretazione dei risultati del modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In pratica, la regressione Ridge ha il potenziale per produrre un modello in grado di fare previsioni migliori rispetto a un modello dei minimi quadrati, ma spesso \u00e8 pi\u00f9 difficile interpretare i risultati del modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\">A seconda che per te sia pi\u00f9 importante l&#8217;interpretazione del modello o l&#8217;accuratezza della previsione, puoi scegliere di utilizzare i minimi quadrati ordinari o la regressione di cresta in diversi scenari.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regressione della cresta in R e Python<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">I seguenti tutorial spiegano come eseguire la regressione della cresta in R e Python, i due linguaggi pi\u00f9 comunemente utilizzati per l&#8217;adattamento dei modelli di regressione della cresta:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/it\/regressione-della-cresta-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione della cresta in R (passo dopo passo)<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\/regressione-della-cresta-in-python\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regressione Ridge in Python (passo dopo passo)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nella regressione lineare multipla ordinaria, utilizziamo un insieme di variabili predittive p e una variabile di risposta per adattare un modello della forma: Y = \u03b2 0 + \u03b2 1 X 1 + \u03b2 2 X 2 + \u2026 + \u03b2 p Oro: Y : la variabile di risposta X j : la j- esima [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Introduzione alla Regressione Ridge - Statorials<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce una rapida introduzione alla regressione della cresta, inclusa una spiegazione ed esempi.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Introduzione alla Regressione Ridge - Statorials\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce una rapida introduzione alla regressione della cresta, inclusa una spiegazione ed esempi.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:26:08+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\",\"url\":\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\",\"name\":\"Introduzione alla Regressione Ridge - Statorials\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T08:26:08+00:00\",\"dateModified\":\"2023-07-27T08:26:08+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce una rapida introduzione alla regressione della cresta, inclusa una spiegazione ed esempi.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/regressione-della-cresta\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/regressione-della-cresta\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/regressione-della-cresta\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Introduzione alla regressione della cresta\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Introduzione alla Regressione Ridge - Statorials","description":"Questo tutorial fornisce una rapida introduzione alla regressione della cresta, inclusa una spiegazione ed esempi.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/regressione-della-cresta\/","og_locale":"it_IT","og_type":"article","og_title":"Introduzione alla Regressione Ridge - Statorials","og_description":"Questo tutorial fornisce una rapida introduzione alla regressione della cresta, inclusa una spiegazione ed esempi.","og_url":"https:\/\/statorials.org\/it\/regressione-della-cresta\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:26:08+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png"}],"author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"5 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/regressione-della-cresta\/","url":"https:\/\/statorials.org\/it\/regressione-della-cresta\/","name":"Introduzione alla Regressione Ridge - Statorials","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T08:26:08+00:00","dateModified":"2023-07-27T08:26:08+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce una rapida introduzione alla regressione della cresta, inclusa una spiegazione ed esempi.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/regressione-della-cresta\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/regressione-della-cresta\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/regressione-della-cresta\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Introduzione alla regressione della cresta"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1193"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1193"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1193\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1193"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1193"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1193"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}