{"id":1246,"date":"2023-07-27T03:54:17","date_gmt":"2023-07-27T03:54:17","guid":{"rendered":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/"},"modified":"2023-07-27T03:54:17","modified_gmt":"2023-07-27T03:54:17","slug":"k-medoidi-in-r","status":"publish","type":"post","link":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/","title":{"rendered":"K-medoidi in r: esempio passo passo"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Il clustering \u00e8 una tecnica di apprendimento automatico che tenta di trovare gruppi o <em>cluster<\/em> di <a href=\"https:\/\/statorials.org\/it\/osservazione-in-statistica\/\" target=\"_blank\" rel=\"noopener noreferrer\">osservazioni<\/a> all&#8217;interno di un set di dati.<\/span><\/p>\n<p> <span style=\"color: #000000;\">L&#8217;obiettivo \u00e8 trovare cluster tali che le osservazioni all&#8217;interno di ciascun cluster siano abbastanza simili tra loro, mentre le osservazioni in cluster diversi siano abbastanza diverse l&#8217;una dall&#8217;altra.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il clustering \u00e8 una forma di <a href=\"https:\/\/statorials.org\/it\/apprendimento-supervisionato-vs.-non-supervisionato\/\" target=\"_blank\" rel=\"noopener noreferrer\">apprendimento non supervisionato<\/a> perch\u00e9 stiamo semplicemente cercando di trovare la struttura all&#8217;interno di un set di dati invece di prevedere il valore di una <a href=\"https:\/\/statorials.org\/it\/variabili-risposte-esplicative\/\" target=\"_blank\" rel=\"noopener noreferrer\">variabile di risposta<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il clustering viene spesso utilizzato nel marketing quando le aziende hanno accesso a informazioni quali:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Reddito familiare<\/span><\/li>\n<li> <span style=\"color: #000000;\">Dimensione della famiglia<\/span><\/li>\n<li> <span style=\"color: #000000;\">Capofamiglia Professione<\/span><\/li>\n<li> <span style=\"color: #000000;\">Distanza dall&#8217;area urbana pi\u00f9 vicina<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Quando queste informazioni sono disponibili, il clustering pu\u00f2 essere utilizzato per identificare famiglie simili e che potrebbero avere maggiori probabilit\u00e0 di acquistare determinati prodotti o di rispondere meglio a un certo tipo di pubblicit\u00e0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Una delle forme pi\u00f9 comuni di clustering \u00e8 nota come <a href=\"https:\/\/statorials.org\/it\/k-significa-raggruppamento-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">clustering k-mean<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Sfortunatamente, questo metodo pu\u00f2 essere influenzato da valori anomali, motivo per cui un&#8217;alternativa spesso utilizzata \u00e8 <strong>il clustering k-medoids<\/strong> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Cos&#8217;\u00e8 il clustering K-Medoids?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Il clustering K-medoids \u00e8 una tecnica in cui inseriamo ciascuna osservazione in un set di dati in uno dei cluster <em>K.<\/em><\/span><\/p>\n<p> <span style=\"color: #000000;\">L&#8217;obiettivo finale \u00e8 quello di avere <em>K<\/em> cluster in cui le osservazioni all&#8217;interno di ciascun cluster sono abbastanza simili tra loro mentre le osservazioni nei diversi cluster sono abbastanza diverse l&#8217;una dall&#8217;altra.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In pratica, utilizziamo i seguenti passaggi per eseguire il clustering K-means:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Scegli un valore per <em>K.<\/em><\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Innanzitutto, dobbiamo decidere quanti cluster vogliamo identificare nei dati. Spesso dobbiamo semplicemente testare diversi valori diversi per <em>K<\/em> e analizzare i risultati per vedere quale numero di cluster sembra avere pi\u00f9 senso per un dato problema.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>2. Assegnare casualmente ciascuna osservazione a un cluster iniziale, da 1 a <em>K.<\/em><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Eseguire la seguente procedura finch\u00e9 le assegnazioni dei cluster non smettono di cambiare.<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Per ciascuno dei <em>K<\/em> cluster, calcola il <em>centro di gravit\u00e0 del cluster.<\/em> Questo \u00e8 il vettore delle <em>p<\/em> <b>mediane<\/b> delle caratteristiche per le osservazioni del <em>k<\/em> -esimo ammasso.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Assegna ciascuna osservazione al cluster con il baricentro pi\u00f9 vicino. Qui, <em>il pi\u00f9 vicino<\/em> \u00e8 definito utilizzando <a href=\"https:\/\/en.wikipedia.org\/wiki\/Euclidean_distance#Squared_Euclidean_distance\" target=\"_blank\" rel=\"noopener noreferrer\">la distanza euclidea<\/a> .<\/span><\/li>\n<\/ul>\n<blockquote>\n<p> <span style=\"color: #000000;\"><strong>Nota tecnica:<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Poich\u00e9 k-medoids calcola i centroidi del cluster utilizzando le mediane anzich\u00e9 le medie, tende ad essere pi\u00f9 robusto rispetto ai valori anomali rispetto a k-means.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In pratica, se non sono presenti valori anomali estremi nel set di dati, k-medie e k-medoidi produrranno risultati simili.<\/span><\/p>\n<\/blockquote>\n<h3> <span style=\"color: #000000;\"><strong>Raggruppamento dei K-Medoidi in R<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Il tutorial seguente fornisce un esempio passo passo di come eseguire il clustering k-medoids in R.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Passaggio 1: caricare i pacchetti necessari<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Innanzitutto, caricheremo due pacchetti contenenti diverse funzioni utili per il clustering di k-medoid in R.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\">library<\/span> (factoextra)\n<span style=\"color: #993300;\">library<\/span> (cluster)<\/strong><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Passaggio 2: caricare e preparare i dati<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Per questo esempio, utilizzeremo il set di dati <em>USArrests<\/em> integrato in R, che contiene il numero di arresti ogni 100.000 persone in ciascuno stato degli Stati Uniti nel 1973 per <em>omicidio<\/em> , <em>aggressione<\/em> e <em>stupro<\/em> , nonch\u00e9 la percentuale della popolazione di ciascuno stato che vive in aree urbane le zone. , <em>UrbanPop<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il codice seguente mostra come eseguire le seguenti operazioni:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Carica il set di dati <em>sugli arresti USA<\/em><\/span><\/li>\n<li> <span style=\"color: #000000;\">Rimuovi tutte le righe con valori mancanti<\/span><\/li>\n<li> <span style=\"color: #000000;\">Scalare ciascuna variabile nel set di dati in modo che abbia una media pari a 0 e una deviazione standard pari a 1<\/span><\/li>\n<\/ul>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#load data<\/span>\ndf &lt;-USArrests\n\n<span style=\"color: #008080;\">#remove rows with missing values<\/span><\/strong>\n<strong>df &lt;- na. <span style=\"color: #3366ff;\">omitted<\/span> (df)\n\n<span style=\"color: #008080;\">#scale each variable to have a mean of 0 and sd of 1<\/span><\/strong>\n<strong>df &lt;- scale(df)\n\n<span style=\"color: #008080;\">#view first six rows of dataset<\/span>\nhead(df)\n\n               Murder Assault UrbanPop Rape\nAlabama 1.24256408 0.7828393 -0.5209066 -0.003416473\nAlaska 0.50786248 1.1068225 -1.2117642 2.484202941\nArizona 0.07163341 1.4788032 0.9989801 1.042878388\nArkansas 0.23234938 0.2308680 -1.0735927 -0.184916602\nCalifornia 0.27826823 1.2628144 1.7589234 2.067820292\nColorado 0.02571456 0.3988593 0.8608085 1.864967207\n<\/strong><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Passaggio 3: trovare il numero ottimale di cluster<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Per eseguire il clustering k-medoid in R, possiamo utilizzare la funzione <strong>pam()<\/strong> , che sta per &#8220;partitioning around medians&#8221; e utilizza la seguente sintassi:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>pam(data, k, metrica = \u201ceuclidea\u201d, stand = FALSE)<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Oro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>dati:<\/strong> nome del set di dati.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>k:<\/strong> il numero di cluster.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>metrica:<\/strong> la metrica da utilizzare per calcolare la distanza. Il valore predefinito \u00e8 <em>Euclidean<\/em> ma \u00e8 anche possibile specificare <em>manhattan<\/em> .<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>stand:<\/strong> se normalizzare o meno ciascuna variabile nel set di dati. Il valore predefinito \u00e8 falso.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Poich\u00e9 non sappiamo in anticipo quale numero di cluster \u00e8 ottimale, creeremo due diversi grafici che possono aiutarci a decidere:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Numero di cluster rispetto al totale nella somma dei quadrati<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Innanzitutto, utilizzeremo la funzione <strong>fviz_nbclust()<\/strong> per creare un grafico del numero di cluster rispetto al totale nella somma dei quadrati:<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong>fviz_nbclust(df, pam, method = \u201c <span style=\"color: #008000;\">wss<\/span> \u201d)<\/strong> <\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12327 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kmedoide1.png\" alt=\"Cluster ottimali per k-medoidi\" width=\"462\" height=\"449\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Il totale nella somma dei quadrati generalmente aumenter\u00e0 sempre all&#8217;aumentare del numero di cluster. Quindi, quando creiamo questo tipo di trama, cerchiamo un &#8220;ginocchio&#8221; in cui la somma dei quadrati inizia a &#8220;piegarsi&#8221; o a livellarsi.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Il punto di curvatura del grafico corrisponde generalmente al numero ottimale di cluster. Al di l\u00e0 di questa cifra, \u00e8 probabile che si verifichi <a href=\"https:\/\/statorials.org\/it\/overfitting-del-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\">un overfitting<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Per questo grafico, sembra che ci sia una piccola piega o &#8220;piegatura&#8221; in k = 4 cluster.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Numero di cluster rispetto alle statistiche del gap<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Un altro modo per determinare il numero ottimale di cluster \u00e8 utilizzare una metrica chiamata <a style=\"color: #000000;\" href=\"https:\/\/web.stanford.edu\/~hastie\/Papers\/gap.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">statistica di deviazione<\/a> , che confronta la variazione totale intra-cluster per diversi valori di k con i loro valori attesi per una distribuzione senza clustering.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Possiamo calcolare la statistica del gap per ciascun numero di cluster utilizzando la funzione <strong>clusGap()<\/strong> dal pacchetto <em>cluster<\/em> , nonch\u00e9 un grafico dei cluster rispetto alle statistiche del gap utilizzando la funzione <strong>fviz_gap_stat()<\/strong> :<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#calculate gap statistic based on number of clusters\n<\/span>gap_stat &lt;- clusGap(df,\n                    FUN = pam,\n                    K.max = 10, <span style=\"color: #008080;\">#max clusters to consider<\/span>\n                    B = 50) <span style=\"color: #008080;\">#total bootstrapped iterations<\/span>\n\n<span style=\"color: #008080;\">#plot number of clusters vs. gap statistic\n<\/span>fviz_gap_stat(gap_stat)<\/strong> <\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12328 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kmedoide2.png\" alt=\"K-medoidi numero ottimale di cluster in R\" width=\"443\" height=\"441\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Dal grafico possiamo vedere che la statistica del gap \u00e8 massima con k = 4 cluster, che corrisponde al metodo del gomito utilizzato in precedenza.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Passaggio 4: eseguire il clustering K-Medoids con Optimal <em>K<\/em><\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Infine, possiamo eseguire il clustering di k-medoidi sul set di dati utilizzando il valore ottimale per <em>k<\/em> di 4:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#make this example reproducible\n<span style=\"color: #000000;\">set.seed(1)<\/span>\n\n#perform k-medoids clustering with k = 4 clusters\n<\/span>kmed &lt;- pam(df, k = 4)\n\n<span style=\"color: #008080;\">#view results\n<\/span>kmed\n\n              ID Murder Assault UrbanPop Rape\nAlabama 1 1.2425641 0.7828393 -0.5209066 -0.003416473\nMichigan 22 0.9900104 1.0108275 0.5844655 1.480613993\nOklahoma 36 -0.2727580 -0.2371077 0.1699510 -0.131534211\nNew Hampshire 29 -1.3059321 -1.3650491 -0.6590781 -1.252564419\nVector clustering:\n       Alabama Alaska Arizona Arkansas California \n             1 2 2 1 2 \n      Colorado Connecticut Delaware Florida Georgia \n             2 3 3 2 1 \n        Hawaii Idaho Illinois Indiana Iowa \n             3 4 2 3 4 \n        Kansas Kentucky Louisiana Maine Maryland \n             3 3 1 4 2 \n Massachusetts Michigan Minnesota Mississippi Missouri \n             3 2 4 1 3 \n       Montana Nebraska Nevada New Hampshire New Jersey \n             3 3 2 4 3 \n    New Mexico New York North Carolina North Dakota Ohio \n             2 2 1 4 3 \n      Oklahoma Oregon Pennsylvania Rhode Island South Carolina \n             3 3 3 3 1 \n  South Dakota Tennessee Texas Utah Vermont \n             4 1 2 3 4 \n      Virginia Washington West Virginia Wisconsin Wyoming \n             3 3 4 4 3 \nObjective function:\n   build swap \n1.035116 1.027102 \n\nAvailable components:\n [1] \"medoids\" \"id.med\" \"clustering\" \"objective\" \"isolation\" \n [6] \"clusinfo\" \"silinfo\" \"diss\" \"call\" \"data\"          \n<\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Si noti che tutti e quattro i centroidi del cluster sono osservazioni effettive nel set di dati. Nella parte superiore dell&#8217;output, possiamo vedere che i quattro centroidi si trovano nei seguenti stati:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Alabama<\/span><\/li>\n<li> <span style=\"color: #000000;\">Michigan<\/span><\/li>\n<li> <span style=\"color: #000000;\">Oklahoma<\/span><\/li>\n<li> <span style=\"color: #000000;\">New Hampshire<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Possiamo visualizzare i cluster su un grafico a dispersione che mostra le prime due componenti principali sugli assi utilizzando la funzione <strong>fivz_cluster()<\/strong> :<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#plot results of final k-medoids model\n<span style=\"color: #000000;\">fviz_cluster(kmed, data = df)\n<\/span><\/span><\/strong><\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12329 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kmedoide3.png\" alt=\"Tracciare cluster k-medoidi in R\" width=\"497\" height=\"500\" srcset=\"\" sizes=\"\"><\/p>\n<p> <span style=\"color: #000000;\">Possiamo anche aggiungere le assegnazioni dei cluster di ciascuno stato al set di dati originale:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#add cluster assignment to original data\n<span style=\"color: #000000;\">final_data &lt;- cbind(USArrests, cluster = kmed$cluster)\n<\/span>\n#view final data\n<span style=\"color: #000000;\">head(final_data)\n\n           Murder Assault UrbanPop Rape cluster\nAlabama 13.2 236 58 21.2 1\nAlaska 10.0 263 48 44.5 2\nArizona 8.1 294 80 31.0 2\nArkansas 8.8 190 50 19.5 1\nCalifornia 9.0 276 91 40.6 2\nColorado 7.9 204 78 38.7 2\n<\/span><\/span><\/strong><\/pre>\n<hr>\n<p> <span style=\"color: #000000;\">Puoi trovare il codice R completo utilizzato in questo esempio <a href=\"https:\/\/github.com\/Statorials\/R-Guides\/blob\/main\/k_medoids.R\" target=\"_blank\" rel=\"noopener noreferrer\">qui<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il clustering \u00e8 una tecnica di apprendimento automatico che tenta di trovare gruppi o cluster di osservazioni all&#8217;interno di un set di dati. L&#8217;obiettivo \u00e8 trovare cluster tali che le osservazioni all&#8217;interno di ciascun cluster siano abbastanza simili tra loro, mentre le osservazioni in cluster diversi siano abbastanza diverse l&#8217;una dall&#8217;altra. Il clustering \u00e8 una [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>K-Medoidi in R: esempio passo passo<\/title>\n<meta name=\"description\" content=\"Questo tutorial fornisce un esempio passo passo di come eseguire il clustering k-medoids in R.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/it\/k-medoidi-in-r\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"K-Medoidi in R: esempio passo passo\" \/>\n<meta property=\"og:description\" content=\"Questo tutorial fornisce un esempio passo passo di come eseguire il clustering k-medoids in R.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/it\/k-medoidi-in-r\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T03:54:17+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kmedoide1.png\" \/>\n<meta name=\"author\" content=\"Benjamin anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/it\/k-medoidi-in-r\/\",\"url\":\"https:\/\/statorials.org\/it\/k-medoidi-in-r\/\",\"name\":\"K-Medoidi in R: esempio passo passo\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/it\/#website\"},\"datePublished\":\"2023-07-27T03:54:17+00:00\",\"dateModified\":\"2023-07-27T03:54:17+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\"},\"description\":\"Questo tutorial fornisce un esempio passo passo di come eseguire il clustering k-medoids in R.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/it\/k-medoidi-in-r\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/it\/k-medoidi-in-r\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/it\/k-medoidi-in-r\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Casa\",\"item\":\"https:\/\/statorials.org\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"K-medoidi in r: esempio passo passo\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/it\/#website\",\"url\":\"https:\/\/statorials.org\/it\/\",\"name\":\"Statorials\",\"description\":\"La tua guida all&#039;alfabetizzazione statistica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/it\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae\",\"name\":\"Benjamin anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin anderson\"},\"description\":\"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9\",\"sameAs\":[\"https:\/\/statorials.org\/it\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"K-Medoidi in R: esempio passo passo","description":"Questo tutorial fornisce un esempio passo passo di come eseguire il clustering k-medoids in R.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/","og_locale":"it_IT","og_type":"article","og_title":"K-Medoidi in R: esempio passo passo","og_description":"Questo tutorial fornisce un esempio passo passo di come eseguire il clustering k-medoids in R.","og_url":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/","og_site_name":"Statorials","article_published_time":"2023-07-27T03:54:17+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/kmedoide1.png"}],"author":"Benjamin anderson","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Benjamin anderson","Est. reading time":"6 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/","url":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/","name":"K-Medoidi in R: esempio passo passo","isPartOf":{"@id":"https:\/\/statorials.org\/it\/#website"},"datePublished":"2023-07-27T03:54:17+00:00","dateModified":"2023-07-27T03:54:17+00:00","author":{"@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae"},"description":"Questo tutorial fornisce un esempio passo passo di come eseguire il clustering k-medoids in R.","breadcrumb":{"@id":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/it\/k-medoidi-in-r\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/it\/k-medoidi-in-r\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Casa","item":"https:\/\/statorials.org\/it\/"},{"@type":"ListItem","position":2,"name":"K-medoidi in r: esempio passo passo"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/it\/#website","url":"https:\/\/statorials.org\/it\/","name":"Statorials","description":"La tua guida all&#039;alfabetizzazione statistica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/it\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/0896f191fb9fb019f2cd8623112cb3ae","name":"Benjamin anderson","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/statorials.org\/it\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/it\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Benjamin anderson"},"description":"Ciao, sono Benjamin, un professore di statistica in pensione diventato insegnante dedicato di Statorials. Con una vasta esperienza e competenza nel campo della statistica, sono ansioso di condividere le mie conoscenze per potenziare gli studenti attraverso Statorials. Scopri di pi\u00f9","sameAs":["https:\/\/statorials.org\/it"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1246"}],"collection":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/comments?post=1246"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/posts\/1246\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/media?parent=1246"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/categories?post=1246"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/it\/wp-json\/wp\/v2\/tags?post=1246"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}