{"id":3783,"date":"2023-07-15T14:06:42","date_gmt":"2023-07-15T14:06:42","guid":{"rendered":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/"},"modified":"2023-07-15T14:06:42","modified_gmt":"2023-07-15T14:06:42","slug":"kl-divergencia-em-r","status":"publish","type":"post","link":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/","title":{"rendered":"Como calcular a diverg\u00eancia kl em r (com exemplo)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Nas estat\u00edsticas, a <strong>diverg\u00eancia Kullback-Leibler (KL)<\/strong> \u00e9 uma m\u00e9trica de dist\u00e2ncia que quantifica a diferen\u00e7a entre duas distribui\u00e7\u00f5es de probabilidade.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Se tivermos duas distribui\u00e7\u00f5es de probabilidade, P e Q, geralmente escrevemos a diverg\u00eancia KL usando a nota\u00e7\u00e3o KL(P || Q), que significa &#8220;diverg\u00eancia de P de Q&#8221;.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Calculamos usando a seguinte f\u00f3rmula:<\/span><\/p>\n<p> <span style=\"color: #000000;\">KL(P || Q) = \u03a3P(x) <em>ln<\/em> (P(x) \/ Q(x))<\/span><\/p>\n<p> <span style=\"color: #000000;\">Se a diverg\u00eancia KL entre duas distribui\u00e7\u00f5es for zero, isso indica que as distribui\u00e7\u00f5es s\u00e3o id\u00eanticas.<\/span><\/p>\n<p> <span style=\"color: #000000;\">A maneira mais simples de calcular a diverg\u00eancia KL entre duas distribui\u00e7\u00f5es de probabilidade em R \u00e9 usar a fun\u00e7\u00e3o <strong>KL()<\/strong> do pacote <strong>filantropia<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">O exemplo a seguir mostra como usar esta fun\u00e7\u00e3o na pr\u00e1tica.<\/span><\/p>\n<h2> <span style=\"color: #000000;\"><strong>Exemplo: calculando a diverg\u00eancia KL em R<\/strong><\/span><\/h2>\n<p> <span style=\"color: #000000;\">Suponha que temos as duas distribui\u00e7\u00f5es de probabilidade a seguir em R:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\">#define two probability distributions\n<span style=\"color: #000000;\">P &lt;- c(.05, .1, .2, .05, .15, .25, .08, .12)\nQ &lt;- c(.3, .1, .2, .1, .1, .02, .08, .1)\n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\"><strong>Nota<\/strong> : \u00c9 importante que as probabilidades de cada distribui\u00e7\u00e3o somam um.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Podemos usar o seguinte c\u00f3digo para calcular a diverg\u00eancia KL entre as duas distribui\u00e7\u00f5es:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\"><span style=\"color: #000000;\"><span style=\"color: #008000;\">library<\/span> (philentropy)\n\n<span style=\"color: #008080;\">#rbind distributions into one matrix\n<\/span>x &lt;- rbind(P,Q)\n\n<span style=\"color: #008080;\">#calculate KL divergence\n<\/span>KL(x, unit=' <span style=\"color: #ff0000;\">log<\/span> ')\n\nMetric: 'kullback-leibler' using unit: 'log'; comparing: 2 vectors.\nkullback-leibler \n       0.5898852 \n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\">A diverg\u00eancia KL da distribui\u00e7\u00e3o P da distribui\u00e7\u00e3o Q \u00e9 de aproximadamente <strong>0,589<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Observe que as unidades usadas neste c\u00e1lculo s\u00e3o conhecidas como <a href=\"https:\/\/en.wikipedia.org\/wiki\/Nat_(unit)\" target=\"_blank\" rel=\"noopener\">nats<\/a> , que \u00e9 a abrevia\u00e7\u00e3o de <em>unidade natural de informa\u00e7\u00e3o<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ent\u00e3o dir\u00edamos que a diverg\u00eancia KL \u00e9 de <strong>0,589 nats<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Observe tamb\u00e9m que a diverg\u00eancia KL n\u00e3o \u00e9 uma m\u00e9trica sim\u00e9trica. Isto significa que se calcularmos a diverg\u00eancia KL da distribui\u00e7\u00e3o Q da distribui\u00e7\u00e3o P, provavelmente obteremos um valor diferente:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\"><span style=\"color: #000000;\"><span style=\"color: #008000;\">library<\/span> (philentropy)\n\n<span style=\"color: #008080;\">#rbind distributions into one matrix\n<\/span>x &lt;- rbind(Q,P)\n\n<span style=\"color: #008080;\">#calculate KL divergence\n<\/span>KL(x, unit=' <span style=\"color: #ff0000;\">log<\/span> ')\n\nMetric: 'kullback-leibler' using unit: 'log'; comparing: 2 vectors.\nkullback-leibler \n       0.4975493 \n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\">A diverg\u00eancia KL da distribui\u00e7\u00e3o Q da distribui\u00e7\u00e3o P \u00e9 de aproximadamente <strong>0,497 nats<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Observe tamb\u00e9m que algumas f\u00f3rmulas usam log base 2 para calcular a diverg\u00eancia KL. Neste caso estamos falando de diverg\u00eancia em termos de <a href=\"https:\/\/en.wikipedia.org\/wiki\/Bit\" target=\"_blank\" rel=\"noopener\">bits<\/a> e n\u00e3o de nats.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Para calcular a diverg\u00eancia KL em termos de bits, voc\u00ea pode usar log2 no argumento da <strong>unidade<\/strong> :<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008080;\"><span style=\"color: #000000;\"><span style=\"color: #008000;\">library<\/span> (philentropy)\n\n<span style=\"color: #008080;\">#rbind distributions into one matrix\n<\/span>x &lt;- rbind(P,Q)\n\n<span style=\"color: #008080;\">#calculate KL divergence (in bits)\n<\/span>KL(x, unit=' <span style=\"color: #ff0000;\">log2<\/span> ')\n\nMetric: 'kullback-leibler' using unit: 'log2'; comparing: 2 vectors.\nkullback-leibler \n       0.7178119\n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\">A diverg\u00eancia KL da distribui\u00e7\u00e3o P da distribui\u00e7\u00e3o Q \u00e9 de aproximadamente <strong>0,7178 bits<\/strong> .<\/span><\/p>\n<h2> <span style=\"color: #000000;\"><strong>Recursos adicionais<\/strong><\/span><\/h2>\n<p> <span style=\"color: #000000;\">Os tutoriais a seguir explicam como realizar outras tarefas comuns em R:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/pt\/gerar-uma-distribuicao-normal-em-r\/\" target=\"_blank\" rel=\"noopener\">Como gerar uma distribui\u00e7\u00e3o normal em R<\/a><br \/> <a href=\"https:\/\/statorials.org\/pt\/tracar-a-distribuicao-normal-r\/\" target=\"_blank\" rel=\"noopener\">Como tra\u00e7ar uma distribui\u00e7\u00e3o normal em R<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nas estat\u00edsticas, a diverg\u00eancia Kullback-Leibler (KL) \u00e9 uma m\u00e9trica de dist\u00e2ncia que quantifica a diferen\u00e7a entre duas distribui\u00e7\u00f5es de probabilidade. Se tivermos duas distribui\u00e7\u00f5es de probabilidade, P e Q, geralmente escrevemos a diverg\u00eancia KL usando a nota\u00e7\u00e3o KL(P || Q), que significa &#8220;diverg\u00eancia de P de Q&#8221;. Calculamos usando a seguinte f\u00f3rmula: KL(P || Q) [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-3783","post","type-post","status-publish","format-standard","hentry","category-guia"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Como calcular a diverg\u00eancia KL em R (com exemplo) - Estatologia<\/title>\n<meta name=\"description\" content=\"Este tutorial explica como calcular a diverg\u00eancia KL em R, com um exemplo.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/\" \/>\n<meta property=\"og:locale\" content=\"pt_PT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Como calcular a diverg\u00eancia KL em R (com exemplo) - Estatologia\" \/>\n<meta property=\"og:description\" content=\"Este tutorial explica como calcular a diverg\u00eancia KL em R, com um exemplo.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-15T14:06:42+00:00\" \/>\n<meta name=\"author\" content=\"Dr. benjamim anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. benjamim anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo estimado de leitura\" \/>\n\t<meta name=\"twitter:data2\" content=\"2 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/\",\"url\":\"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/\",\"name\":\"Como calcular a diverg\u00eancia KL em R (com exemplo) - Estatologia\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pt\/#website\"},\"datePublished\":\"2023-07-15T14:06:42+00:00\",\"dateModified\":\"2023-07-15T14:06:42+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666\"},\"description\":\"Este tutorial explica como calcular a diverg\u00eancia KL em R, com um exemplo.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/#breadcrumb\"},\"inLanguage\":\"pt-PT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Lar\",\"item\":\"https:\/\/statorials.org\/pt\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Como calcular a diverg\u00eancia kl em r (com exemplo)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pt\/#website\",\"url\":\"https:\/\/statorials.org\/pt\/\",\"name\":\"Statorials\",\"description\":\"O seu guia para a literacia estat\u00edstica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pt\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pt-PT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666\",\"name\":\"Dr. benjamim anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-PT\",\"@id\":\"https:\/\/statorials.org\/pt\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. benjamim anderson\"},\"description\":\"Ol\u00e1, sou Benjamin, um professor aposentado de estat\u00edstica que se tornou professor dedicado na Statorials. Com vasta experi\u00eancia e conhecimento na \u00e1rea de estat\u00edstica, estou empenhado em compartilhar meu conhecimento para capacitar os alunos por meio de Statorials. Saber mais\",\"sameAs\":[\"https:\/\/statorials.org\/pt\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Como calcular a diverg\u00eancia KL em R (com exemplo) - Estatologia","description":"Este tutorial explica como calcular a diverg\u00eancia KL em R, com um exemplo.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/","og_locale":"pt_PT","og_type":"article","og_title":"Como calcular a diverg\u00eancia KL em R (com exemplo) - Estatologia","og_description":"Este tutorial explica como calcular a diverg\u00eancia KL em R, com um exemplo.","og_url":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/","og_site_name":"Statorials","article_published_time":"2023-07-15T14:06:42+00:00","author":"Dr. benjamim anderson","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Dr. benjamim anderson","Tempo estimado de leitura":"2 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/","url":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/","name":"Como calcular a diverg\u00eancia KL em R (com exemplo) - Estatologia","isPartOf":{"@id":"https:\/\/statorials.org\/pt\/#website"},"datePublished":"2023-07-15T14:06:42+00:00","dateModified":"2023-07-15T14:06:42+00:00","author":{"@id":"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666"},"description":"Este tutorial explica como calcular a diverg\u00eancia KL em R, com um exemplo.","breadcrumb":{"@id":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/#breadcrumb"},"inLanguage":"pt-PT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pt\/kl-divergencia-em-r\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Lar","item":"https:\/\/statorials.org\/pt\/"},{"@type":"ListItem","position":2,"name":"Como calcular a diverg\u00eancia kl em r (com exemplo)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pt\/#website","url":"https:\/\/statorials.org\/pt\/","name":"Statorials","description":"O seu guia para a literacia estat\u00edstica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pt\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pt-PT"},{"@type":"Person","@id":"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666","name":"Dr. benjamim anderson","image":{"@type":"ImageObject","inLanguage":"pt-PT","@id":"https:\/\/statorials.org\/pt\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr. benjamim anderson"},"description":"Ol\u00e1, sou Benjamin, um professor aposentado de estat\u00edstica que se tornou professor dedicado na Statorials. Com vasta experi\u00eancia e conhecimento na \u00e1rea de estat\u00edstica, estou empenhado em compartilhar meu conhecimento para capacitar os alunos por meio de Statorials. Saber mais","sameAs":["https:\/\/statorials.org\/pt"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/posts\/3783","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/comments?post=3783"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/posts\/3783\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/media?parent=3783"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/categories?post=3783"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/tags?post=3783"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}