{"id":1179,"date":"2023-07-27T09:32:37","date_gmt":"2023-07-27T09:32:37","guid":{"rendered":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/"},"modified":"2023-07-27T09:32:37","modified_gmt":"2023-07-27T09:32:37","slug":"overfitting-del-machine-learning","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/","title":{"rendered":"Cos&#39;\u00e8 l&#39;overfitting nell&#39;apprendimento automatico? (spiegazione ed esempi)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Nell&#8217;apprendimento automatico, spesso costruiamo modelli in modo da poter fare previsioni accurate su determinati fenomeni.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ad esempio, supponiamo di voler creare un <a href=\"https:\/\/statorials.org\/it\/regressione-lineare-multipla\/\" target=\"_blank\" rel=\"noopener noreferrer\">modello di regressione<\/a> che utilizzi la variabile predittrice <em>ore trascorse a studiare<\/em> per prevedere il <em>punteggio ACT<\/em> della variabile di risposta per gli studenti delle scuole superiori.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per costruire questo modello, raccoglieremo dati sulle ore trascorse a studiare e il corrispondente punteggio ACT per centinaia di studenti in un determinato distretto scolastico.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Utilizzeremo quindi questi dati per <em>addestrare<\/em> un modello in grado di fare previsioni sul punteggio che un determinato studente ricever\u00e0 in base al numero totale di ore studiate.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per valutare l&#8217;utilit\u00e0 del modello, possiamo misurare quanto bene le previsioni del modello corrispondono ai dati osservati. Uno dei parametri pi\u00f9 comunemente utilizzati per farlo \u00e8 l\u2019errore quadratico medio (MSE), che viene calcolato come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = (1\/n)*\u03a3(y <sub>i<\/sub> \u2013 f(x <sub>i<\/sub> )) <sup>2<\/sup><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> numero totale di osservazioni<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub> :<\/strong> il valore di risposta dell&#8217;i <sup>-esima<\/sup> osservazione<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>f( <sub>xi<\/sub> ):<\/strong> Il valore di risposta previsto dell&#8217;i- <sup>esima<\/sup> osservazione<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Pi\u00f9 le previsioni del modello si avvicinano alle osservazioni, pi\u00f9 basso sar\u00e0 il MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, uno dei pi\u00f9 grandi errori commessi nell&#8217;apprendimento automatico \u00e8 l&#8217;ottimizzazione dei modelli per ridurre <strong>l&#8217;MSE di addestramento<\/strong> , ovvero la corrispondenza tra le previsioni del modello e i dati utilizzati per addestrare il modello.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando un modello si concentra troppo sulla riduzione dell&#8217;MSE di addestramento, spesso lavora troppo duramente per trovare modelli nei dati di addestramento che sono semplicemente causati dal caso. Quindi, quando il modello viene applicato a dati invisibili, le sue prestazioni sono scarse.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo fenomeno \u00e8 noto come <strong>overfitting<\/strong> . Ci\u00f2 accade quando \u201cadattiamo\u201d un modello troppo fedelmente ai dati di addestramento e quindi finiamo per costruire un modello che non \u00e8 utile per fare previsioni sui nuovi dati.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Esempio di overfitting<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Per comprendere l&#8217;overfitting, torniamo all&#8217;esempio della creazione di un modello di regressione che utilizza <em>le ore trascorse a studiare<\/em> per prevedere <em>il punteggio ACT<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Supponiamo di raccogliere dati per 100 studenti in un determinato distretto scolastico e di creare un rapido grafico a dispersione per visualizzare la relazione tra le due variabili:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11736 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage1.png\" alt=\"\" width=\"471\" height=\"443\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">La relazione tra le due variabili sembra essere quadratica, quindi supponiamo di applicare il seguente modello di regressione quadratica:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Punteggio = 60,1 + 5,4*(Ore) \u2013 0,2*(Ore) <sup>2<\/sup><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11737 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage2.png\" alt=\"Overfitting nell\u2019apprendimento automatico\" width=\"472\" height=\"444\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Questo modello ha un errore quadratico medio di addestramento (MSE) di <strong>3,45<\/strong> . Cio\u00e8, la differenza quadratica media tra le previsioni fatte dal modello e i punteggi ACT effettivi \u00e8 3,45.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, potremmo ridurre questo MSE di formazione adattando un modello polinomiale di ordine superiore. Supponiamo ad esempio di applicare il seguente modello:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Punteggio = 64,3 \u2013 7,1*(Ore) + 8,1*(Ore) <sup>2<\/sup> \u2013 2,1*(Ore) <sup>3<\/sup> + 0,2*(Ore <sup>) 4 \u2013 0,1*(Ore) 5<\/sup> <sup>+<\/sup> 0,2(Ore) <sup>6<\/sup><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11738 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage3.png\" alt=\"Adattamento eccessivo di un modello\" width=\"511\" height=\"480\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Nota come la linea di regressione si adatta molto pi\u00f9 fedelmente ai dati effettivi rispetto alla linea di regressione precedente.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questo modello ha un errore quadratico medio di addestramento (MSE) di soli <strong>0,89<\/strong> . Cio\u00e8, la differenza quadratica media tra le previsioni fatte dal modello e i punteggi ACT effettivi \u00e8 0,89.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Questa formazione MSE \u00e8 molto pi\u00f9 piccola di quella prodotta dal modello precedente.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Tuttavia, non ci interessa veramente l&#8217; <strong>MSE di addestramento<\/strong> , ovvero quanto bene le previsioni del modello corrispondono ai dati che abbiamo utilizzato per addestrare il modello. Invece, ci preoccupiamo principalmente del <strong>test MSE<\/strong> : l\u2019MSE quando il nostro modello viene applicato a dati invisibili.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Se applicassimo il modello di regressione polinomiale di ordine superiore sopra a un set di dati invisibile, probabilmente otterrebbe risultati peggiori rispetto al modello di regressione quadratica pi\u00f9 semplice. Ci\u00f2 produrrebbe cio\u00e8 un test MSE pi\u00f9 elevato, che \u00e8 esattamente ci\u00f2 che non vogliamo.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Come rilevare ed evitare l&#8217;overfitting<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Il modo pi\u00f9 semplice per rilevare l&#8217;overfitting \u00e8 eseguire la convalida incrociata. Il metodo pi\u00f9 comunemente utilizzato \u00e8 noto come <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">convalida incrociata k-fold<\/a> e funziona come segue:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 1: dividere casualmente un set di dati in <em>k<\/em> gruppi, o &#8220;pieghe&#8221;, di dimensioni approssimativamente uguali.<\/strong><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11712 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kfold1.png\" alt=\"Dividere un set di dati in k pieghe\" width=\"530\" height=\"133\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 2: scegli una delle pieghe come set di attesa. Adatta il modello alle restanti pieghe k-1. Calcolare il test MSE sulle osservazioni nello strato che \u00e8 stato tensionato.<\/strong><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11713 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kfold2.png\" alt=\"validazione incrociata k-fold\" width=\"550\" height=\"174\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 3: ripetere questo processo <em>k<\/em> volte, ogni volta utilizzando un set diverso come set di esclusione.<\/strong><\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11714 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kfold3.png\" alt=\"Esempio di convalida incrociata k-fold\" width=\"618\" height=\"234\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Passaggio 4: calcolare l&#8217;MSE complessivo del test come media dei <em>k<\/em> MSE del test.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Prova MSE = (1\/k)*\u03a3MSE <sub>i<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>k:<\/strong> numero di pieghe<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>MSE <sub>i<\/sub><\/strong> : testa MSE all&#8217;i <sup>-esima<\/sup> iterazione<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Questo test MSE ci d\u00e0 una buona idea di come si comporter\u00e0 un determinato modello su dati sconosciuti.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In pratica, possiamo adattare diversi modelli diversi ed eseguire una convalida incrociata k-fold su ciascun modello per scoprirne il test MSE. Possiamo quindi scegliere il modello con il test MSE pi\u00f9 basso come modello migliore da utilizzare per fare previsioni future.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ci\u00f2 garantisce la selezione di un modello che probabilmente offrir\u00e0 le migliori prestazioni sui dati futuri, al contrario di un modello che semplicemente riduce al minimo l&#8217;MSE di formazione e si &#8220;adatta&#8221; bene ai dati storici.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Risorse addizionali<\/strong><\/span><\/h3>\n<p> <a href=\"https:\/\/statorials.org\/it\/compromesso-della-varianza-del-bias\/\" target=\"_blank\" rel=\"noopener noreferrer\">Qual \u00e8 il compromesso tra bias e varianza nel machine learning?<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\/k-piega-convalida-incrociata\/\" target=\"_blank\" rel=\"noopener noreferrer\">Un&#8217;introduzione alla convalida incrociata K-Fold<\/a><br \/> <a href=\"https:\/\/statorials.org\/it\/regressione-vs.-classificazione\/\">Modelli di regressione e classificazione nell&#8217;apprendimento automatico<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nell&#8217;apprendimento automatico, spesso costruiamo modelli in modo da poter fare previsioni accurate su determinati fenomeni. Ad esempio, supponiamo di voler creare un modello di regressione che utilizzi la variabile predittrice ore trascorse a studiare per prevedere il punteggio ACT della variabile di risposta per gli studenti delle scuole superiori. Per costruire questo modello, raccoglieremo dati [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Cos&#039;\u00e8 l&#039;overfitting nell&#039;apprendimento automatico? (Spiegazione ed esempi)<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce una spiegazione del sovradattamento nell&#039;apprendimento automatico, inclusi diversi esempi e modi per evitarlo nella pratica.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Cos&#039;\u00e8 l&#039;overfitting nell&#039;apprendimento automatico? (Spiegazione ed esempi)\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce una spiegazione del sovradattamento nell&#039;apprendimento automatico, inclusi diversi esempi e modi per evitarlo nella pratica.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T09:32:37+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage1.png\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\",\"url\":\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\",\"name\":\"Cos&#39;\u00e8 l&#39;overfitting nell&#39;apprendimento automatico? (Spiegazione ed esempi)\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T09:32:37+00:00\",\"dateModified\":\"2023-07-27T09:32:37+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce una spiegazione del sovradattamento nell&#39;apprendimento automatico, inclusi diversi esempi e modi per evitarlo nella pratica.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Cos&#39;\u00e8 l&#39;overfitting nell&#39;apprendimento automatico? (spiegazione ed esempi)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Cos&#39;\u00e8 l&#39;overfitting nell&#39;apprendimento automatico? (Spiegazione ed esempi)","description":"Questo tutorial fornisce una spiegazione del sovradattamento nell&#39;apprendimento automatico, inclusi diversi esempi e modi per evitarlo nella pratica.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/","og_locale":"it_IT","og_type":"article","og_title":"Cos&#39;\u00e8 l&#39;overfitting nell&#39;apprendimento automatico? (Spiegazione ed esempi)","og_description":"Questo tutorial fornisce una spiegazione del sovradattamento nell&#39;apprendimento automatico, inclusi diversi esempi e modi per evitarlo nella pratica.","og_url":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/","og_site_name":"Statorials","article_published_time":"2023-07-27T09:32:37+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/surapprentissage1.png"}],"author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"4 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/","url":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/","name":"Cos&#39;\u00e8 l&#39;overfitting nell&#39;apprendimento automatico? (Spiegazione ed esempi)","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T09:32:37+00:00","dateModified":"2023-07-27T09:32:37+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce una spiegazione del sovradattamento nell&#39;apprendimento automatico, inclusi diversi esempi e modi per evitarlo nella pratica.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"Cos&#39;\u00e8 l&#39;overfitting nell&#39;apprendimento automatico? (spiegazione ed esempi)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1179"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1179"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1179\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1179"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1179"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1179"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}