{"id":1148,"date":"2023-07-27T12:12:52","date_gmt":"2023-07-27T12:12:52","guid":{"rendered":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/"},"modified":"2023-07-27T12:12:52","modified_gmt":"2023-07-27T12:12:52","slug":"compromisso-de-variancia-de-vies","status":"publish","type":"post","link":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/","title":{"rendered":"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Para avaliar o desempenho de um modelo em um conjunto de dados, precisamos medir at\u00e9 que ponto as previs\u00f5es do modelo correspondem aos dados observados.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Para <a href=\"https:\/\/statorials.org\/pt\/regressao-vs.-classificacao\/\" target=\"_blank\" rel=\"noopener noreferrer\">modelos de regress\u00e3o<\/a> , a m\u00e9trica mais comumente usada \u00e9 o erro quadr\u00e1tico m\u00e9dio (MSE), que \u00e9 calculado da seguinte forma:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = (1\/n)*\u03a3(y <sub>i<\/sub> \u2013 f(x <sub>i<\/sub> )) <sup>2<\/sup><\/span><\/p>\n<p> <span style=\"color: #000000;\">Ouro:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> n\u00famero total de observa\u00e7\u00f5es<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub> :<\/strong> O valor da resposta da <sup>i-\u00e9sima<\/sup> observa\u00e7\u00e3o<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>f (x <sub>i<\/sub> ):<\/strong> O valor de resposta previsto da i- <sup>\u00e9sima<\/sup> observa\u00e7\u00e3o<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Quanto mais pr\u00f3ximas as previs\u00f5es do modelo estiverem das observa\u00e7\u00f5es, menor ser\u00e1 o MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">No entanto, s\u00f3 nos preocupamos com <strong>o teste MSE<\/strong> \u2013 o MSE quando o nosso modelo \u00e9 aplicado a dados n\u00e3o vistos. Isso ocorre porque nos preocupamos apenas com o desempenho do modelo em dados desconhecidos, n\u00e3o em dados existentes.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Por exemplo, n\u00e3o h\u00e1 problema se um modelo que prev\u00ea pre\u00e7os de a\u00e7\u00f5es tiver um MSE baixo em dados hist\u00f3ricos, mas <em>realmente<\/em> queremos poder usar o modelo para prever com precis\u00e3o dados futuros.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Acontece que o teste MSE ainda pode ser dividido em duas partes:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Vari\u00e2ncia:<\/strong> refere-se \u00e0 quantidade que nossa fun\u00e7\u00e3o <em>f<\/em> mudaria se a estim\u00e1ssemos usando um conjunto de treinamento diferente.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Vi\u00e9s:<\/strong> refere-se ao erro introduzido ao abordar um problema real, que pode ser extremamente complicado, com um modelo muito mais simples.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Escrito em termos matem\u00e1ticos:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Teste MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Bias( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">Teste MSE = Vari\u00e2ncia + Vi\u00e9s <sup>2<\/sup> + Erro irredut\u00edvel<\/span><\/p>\n<p> <span style=\"color: #000000;\">O terceiro termo, o erro irredut\u00edvel, \u00e9 o erro que n\u00e3o pode ser reduzido por nenhum modelo simplesmente porque sempre h\u00e1 <em>ru\u00eddo<\/em> na rela\u00e7\u00e3o entre o conjunto de vari\u00e1veis explicativas e a <a href=\"https:\/\/statorials.org\/pt\/respostas-explicativas-das-variaveis\/\" target=\"_blank\" rel=\"noopener noreferrer\">vari\u00e1vel resposta<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Modelos que possuem <strong>alto vi\u00e9s<\/strong> tendem a ter <strong>baixa vari\u00e2ncia<\/strong> . Por exemplo, os modelos de regress\u00e3o linear tendem a ter um vi\u00e9s elevado (assumindo uma rela\u00e7\u00e3o linear simples entre as vari\u00e1veis explicativas e a vari\u00e1vel resposta) e uma vari\u00e2ncia baixa (as estimativas do modelo n\u00e3o mudar\u00e3o muito de amostra para amostra). o outro).<\/span><\/p>\n<p> <span style=\"color: #000000;\">No entanto, modelos com <strong>baixo vi\u00e9s<\/strong> tendem a ter <strong>alta vari\u00e2ncia<\/strong> . Por exemplo, modelos n\u00e3o lineares complexos tendem a ter baixo vi\u00e9s (n\u00e3o assumem uma certa rela\u00e7\u00e3o entre as vari\u00e1veis explicativas e a vari\u00e1vel resposta) com alta vari\u00e2ncia (as estimativas do modelo podem mudar significativamente de uma amostra de aprendizagem para outra).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>A compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\"><strong>O trade-off entre vi\u00e9s e vari\u00e2ncia<\/strong> refere-se ao trade-off que ocorre quando escolhemos reduzir o vi\u00e9s, o que geralmente aumenta a vari\u00e2ncia, ou reduzir a vari\u00e2ncia, o que geralmente aumenta o vi\u00e9s.<\/span><\/p>\n<p> <span style=\"color: #000000;\">O gr\u00e1fico a seguir oferece uma maneira de visualizar essa compensa\u00e7\u00e3o:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11515 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" alt=\"Troca entre polariza\u00e7\u00e3o e vari\u00e2ncia\" width=\"551\" height=\"400\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">O erro total diminui \u00e0 medida que a complexidade de um modelo aumenta, mas apenas at\u00e9 certo ponto. Al\u00e9m de um certo ponto, a vari\u00e2ncia come\u00e7a a aumentar e o erro total tamb\u00e9m come\u00e7a a aumentar.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na pr\u00e1tica, nos preocupamos apenas em minimizar o erro total de um modelo, n\u00e3o necessariamente em minimizar a vari\u00e2ncia ou vi\u00e9s.<\/span> <span style=\"color: #000000;\">Acontece que a maneira de minimizar o erro total \u00e9 encontrar o equil\u00edbrio certo entre vari\u00e2ncia e vi\u00e9s.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Em outras palavras, queremos um modelo complexo o suficiente para capturar a verdadeira rela\u00e7\u00e3o entre as vari\u00e1veis explicativas e a vari\u00e1vel resposta, mas n\u00e3o complexo demais para detectar padr\u00f5es que na verdade n\u00e3o existem.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Quando um modelo \u00e9 muito complexo, ele <a href=\"https:\/\/statorials.org\/pt\/overfitting-de-aprendizado-de-maquina\/\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>ajusta demais<\/strong><\/a> os dados. Isso acontece porque \u00e9 muito dif\u00edcil encontrar padr\u00f5es nos dados de treinamento que sejam simplesmente causados pelo acaso. \u00c9 prov\u00e1vel que esse tipo de modelo tenha um desempenho insatisfat\u00f3rio em dados invis\u00edveis.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Mas quando um modelo \u00e9 demasiado simples, <strong>subestima<\/strong> os dados. Isto acontece porque se assume que a verdadeira rela\u00e7\u00e3o entre as vari\u00e1veis explicativas e a vari\u00e1vel resposta \u00e9 mais simples do que realmente \u00e9.<\/span><\/p>\n<p> <span style=\"color: #000000;\">A maneira de selecionar modelos ideais em aprendizado de m\u00e1quina \u00e9 encontrar um equil\u00edbrio entre vi\u00e9s e vari\u00e2ncia para minimizar o erro de testar o modelo em dados futuros n\u00e3o vistos.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na pr\u00e1tica, a forma mais comum de minimizar o MSE dos testes \u00e9 utilizar <a href=\"https:\/\/statorials.org\/pt\/validacao-cruzada-k-fold\/\" target=\"_blank\" rel=\"noopener noreferrer\">a valida\u00e7\u00e3o cruzada<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Para avaliar o desempenho de um modelo em um conjunto de dados, precisamos medir at\u00e9 que ponto as previs\u00f5es do modelo correspondem aos dados observados. Para modelos de regress\u00e3o , a m\u00e9trica mais comumente usada \u00e9 o erro quadr\u00e1tico m\u00e9dio (MSE), que \u00e9 calculado da seguinte forma: MSE = (1\/n)*\u03a3(y i \u2013 f(x i )) [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-1148","post","type-post","status-publish","format-standard","hentry","category-guia"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?<\/title>\n<meta name=\"description\" content=\"Este tutorial fornece uma explica\u00e7\u00e3o da compensa\u00e7\u00e3o polariza\u00e7\u00e3o-vari\u00e2ncia no aprendizado de m\u00e1quina, incluindo exemplos.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/\" \/>\n<meta property=\"og:locale\" content=\"pt_PT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?\" \/>\n<meta property=\"og:description\" content=\"Este tutorial fornece uma explica\u00e7\u00e3o da compensa\u00e7\u00e3o polariza\u00e7\u00e3o-vari\u00e2ncia no aprendizado de m\u00e1quina, incluindo exemplos.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T12:12:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" \/>\n<meta name=\"author\" content=\"Dr. benjamim anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. benjamim anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo estimado de leitura\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/\",\"url\":\"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/\",\"name\":\"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pt\/#website\"},\"datePublished\":\"2023-07-27T12:12:52+00:00\",\"dateModified\":\"2023-07-27T12:12:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666\"},\"description\":\"Este tutorial fornece uma explica\u00e7\u00e3o da compensa\u00e7\u00e3o polariza\u00e7\u00e3o-vari\u00e2ncia no aprendizado de m\u00e1quina, incluindo exemplos.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/#breadcrumb\"},\"inLanguage\":\"pt-PT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Lar\",\"item\":\"https:\/\/statorials.org\/pt\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pt\/#website\",\"url\":\"https:\/\/statorials.org\/pt\/\",\"name\":\"Statorials\",\"description\":\"O seu guia para a literacia estat\u00edstica!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pt\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pt-PT\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666\",\"name\":\"Dr. benjamim anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-PT\",\"@id\":\"https:\/\/statorials.org\/pt\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. benjamim anderson\"},\"description\":\"Ol\u00e1, sou Benjamin, um professor aposentado de estat\u00edstica que se tornou professor dedicado na Statorials. Com vasta experi\u00eancia e conhecimento na \u00e1rea de estat\u00edstica, estou empenhado em compartilhar meu conhecimento para capacitar os alunos por meio de Statorials. Saber mais\",\"sameAs\":[\"https:\/\/statorials.org\/pt\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?","description":"Este tutorial fornece uma explica\u00e7\u00e3o da compensa\u00e7\u00e3o polariza\u00e7\u00e3o-vari\u00e2ncia no aprendizado de m\u00e1quina, incluindo exemplos.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/","og_locale":"pt_PT","og_type":"article","og_title":"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?","og_description":"Este tutorial fornece uma explica\u00e7\u00e3o da compensa\u00e7\u00e3o polariza\u00e7\u00e3o-vari\u00e2ncia no aprendizado de m\u00e1quina, incluindo exemplos.","og_url":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/","og_site_name":"Statorials","article_published_time":"2023-07-27T12:12:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png"}],"author":"Dr. benjamim anderson","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Dr. benjamim anderson","Tempo estimado de leitura":"4 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/","url":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/","name":"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?","isPartOf":{"@id":"https:\/\/statorials.org\/pt\/#website"},"datePublished":"2023-07-27T12:12:52+00:00","dateModified":"2023-07-27T12:12:52+00:00","author":{"@id":"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666"},"description":"Este tutorial fornece uma explica\u00e7\u00e3o da compensa\u00e7\u00e3o polariza\u00e7\u00e3o-vari\u00e2ncia no aprendizado de m\u00e1quina, incluindo exemplos.","breadcrumb":{"@id":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/#breadcrumb"},"inLanguage":"pt-PT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pt\/compromisso-de-variancia-de-vies\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Lar","item":"https:\/\/statorials.org\/pt\/"},{"@type":"ListItem","position":2,"name":"Qual \u00e9 a compensa\u00e7\u00e3o entre vi\u00e9s e vari\u00e2ncia no aprendizado de m\u00e1quina?"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pt\/#website","url":"https:\/\/statorials.org\/pt\/","name":"Statorials","description":"O seu guia para a literacia estat\u00edstica!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pt\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pt-PT"},{"@type":"Person","@id":"https:\/\/statorials.org\/pt\/#\/schema\/person\/e08f98e8db95e0aa9c310e1b27c9c666","name":"Dr. benjamim anderson","image":{"@type":"ImageObject","inLanguage":"pt-PT","@id":"https:\/\/statorials.org\/pt\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pt\/wp-content\/uploads\/2023\/10\/Dr.-Benjamin-Anderson-96x96.jpg","caption":"Dr. benjamim anderson"},"description":"Ol\u00e1, sou Benjamin, um professor aposentado de estat\u00edstica que se tornou professor dedicado na Statorials. Com vasta experi\u00eancia e conhecimento na \u00e1rea de estat\u00edstica, estou empenhado em compartilhar meu conhecimento para capacitar os alunos por meio de Statorials. Saber mais","sameAs":["https:\/\/statorials.org\/pt"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/posts\/1148","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/comments?post=1148"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/posts\/1148\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/media?parent=1148"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/categories?post=1148"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pt\/wp-json\/wp\/v2\/tags?post=1148"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}