{"id":1218,"date":"2023-07-27T06:02:37","date_gmt":"2023-07-27T06:02:37","guid":{"rendered":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/"},"modified":"2023-07-27T06:02:37","modified_gmt":"2023-07-27T06:02:37","slug":"drzewa-klasyfikacyjne-i-regresyjne-w-r","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/","title":{"rendered":"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w r"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Gdy zwi\u0105zek mi\u0119dzy zestawem zmiennych predykcyjnych a <a href=\"https:\/\/statorials.org\/pl\/zmienne-odpowiedzi-wyjasniajace\/\" target=\"_blank\" rel=\"noopener noreferrer\">zmienn\u0105 odpowiedzi<\/a> jest liniowy, metody takie jak <a href=\"https:\/\/statorials.org\/pl\/wielokrotna-regresja-liniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wielokrotna regresja liniowa<\/a> mog\u0105 stworzy\u0107 dok\u0142adne modele predykcyjne.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u015bli jednak zwi\u0105zek mi\u0119dzy zestawem predyktor\u00f3w a reakcj\u0105 jest bardziej z\u0142o\u017cony, metody nieliniowe cz\u0119sto pozwalaj\u0105 na uzyskanie dok\u0142adniejszych modeli.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jedn\u0105 z takich metod s\u0105 <a href=\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacji-i-regresji\/\" target=\"_blank\" rel=\"noopener noreferrer\">drzewa klasyfikacji i regresji<\/a> (CART), kt\u00f3re wykorzystuj\u0105 zestaw zmiennych predykcyjnych do tworzenia drzew decyzyjnych, kt\u00f3re przewiduj\u0105 warto\u015b\u0107 zmiennej odpowiedzi.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u015bli zmienna odpowiedzi jest ci\u0105g\u0142a, mo\u017cemy zbudowa\u0107 drzewa regresji, a je\u015bli zmienna odpowiedzi jest jako\u015bciowa, mo\u017cemy zbudowa\u0107 drzewa klasyfikacyjne.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W tym samouczku wyja\u015bniono, jak tworzy\u0107 drzewa regresji i klasyfikacji w j\u0119zyku R.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Przyk\u0142ad 1: Budowanie drzewa regresji w R<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">W tym przyk\u0142adzie wykorzystamy zbi\u00f3r danych <strong>Hitters<\/strong> z pakietu <strong>ISLR<\/strong> , kt\u00f3ry zawiera r\u00f3\u017cne informacje na temat 263 zawodowych graczy w baseball.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wykorzystamy ten zbi\u00f3r danych do skonstruowania drzewa regresji, kt\u00f3re wykorzystuje zmienne predykcyjne <em>home run\u00f3w<\/em> i <em>lat rozegranych<\/em> w celu przewidzenia <em>wynagrodzenia<\/em> danego gracza.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aby utworzy\u0107 to drzewo regresji, wykonaj nast\u0119puj\u0105ce kroki.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 1: Za\u0142aduj niezb\u0119dne pakiety.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Najpierw za\u0142adujemy niezb\u0119dne pakiety dla tego przyk\u0142adu:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\">library<\/span> (ISLR) <span style=\"color: #008080;\">#contains Hitters dataset<\/span>\n<span style=\"color: #993300;\">library<\/span> (rpart) <span style=\"color: #008080;\">#for fitting decision trees<\/span>\n<span style=\"color: #993300;\">library<\/span> (rpart.plot) <span style=\"color: #008080;\">#for plotting decision trees\n<\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\"><strong>Krok 2: Zbuduj pocz\u0105tkowe drzewo regresji.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Najpierw zbudujemy du\u017ce drzewo regresji pocz\u0105tkowej. Mo\u017cemy zagwarantowa\u0107, \u017ce drzewo b\u0119dzie du\u017ce, u\u017cywaj\u0105c ma\u0142ej warto\u015bci <strong>cp<\/strong> , kt\u00f3ra oznacza \u201eparametr z\u0142o\u017cono\u015bci\u201d.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Oznacza to, \u017ce b\u0119dziemy dokonywa\u0107 dalszych podzia\u0142\u00f3w na drzewie regresji, o ile ca\u0142kowity wsp\u00f3\u0142czynnik R-kwadrat modelu wzro\u015bnie co najmniej o warto\u015b\u0107 okre\u015blon\u0105 przez cp.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie u\u017cyjemy funkcji <strong>printcp()<\/strong> do wydrukowania wynik\u00f3w modelu:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #008080;\">#build the initial tree\n<\/span><span style=\"color: #000000;\">tree &lt;- rpart(Salary ~ Years + HmRun, data=Hitters, control=rpart. <span style=\"color: #3366ff;\">control<\/span> (cp= <span style=\"color: #008000;\">.0001<\/span> ))\n\n<span style=\"color: #008080;\">#view results<\/span>\nprintcp(tree)\n\nVariables actually used in tree construction:\n[1] HmRun Years\n\nRoot node error: 53319113\/263 = 202734\n\nn=263 (59 observations deleted due to missingness)\n\n           CP nsplit rel error xerror xstd\n1 0.24674996 0 1.00000 1.00756 0.13890\n2 0.10806932 1 0.75325 0.76438 0.12828\n3 0.01865610 2 0.64518 0.70295 0.12769\n4 0.01761100 3 0.62652 0.70339 0.12337\n5 0.01747617 4 0.60891 0.70339 0.12337\n6 0.01038188 5 0.59144 0.66629 0.11817\n7 0.01038065 6 0.58106 0.65697 0.11687\n8 0.00731045 8 0.56029 0.67177 0.11913\n9 0.00714883 9 0.55298 0.67881 0.11960\n10 0.00708618 10 0.54583 0.68034 0.11988\n11 0.00516285 12 0.53166 0.68427 0.11997\n12 0.00445345 13 0.52650 0.68994 0.11996\n13 0.00406069 14 0.52205 0.68988 0.11940\n14 0.00264728 15 0.51799 0.68874 0.11916\n15 0.00196586 16 0.51534 0.68638 0.12043\n16 0.00016686 17 0.51337 0.67577 0.11635\n17 0.00010000 18 0.51321 0.67576 0.11615\nn=263 (59 observations deleted due to missingness)\n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\"><strong>Krok 3: Przytnij drzewo.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie przycinamy drzewo regresji, aby znale\u017a\u0107 optymaln\u0105 warto\u015b\u0107 cp (parametr z\u0142o\u017cono\u015bci), kt\u00f3ra prowadzi do najni\u017cszego b\u0142\u0119du testu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nale\u017cy zauwa\u017cy\u0107, \u017ce optymaln\u0105 warto\u015bci\u0105 cp jest ta, kt\u00f3ra prowadzi do najni\u017cszego <strong>b\u0142\u0119du x<\/strong> w poprzednim wyniku, co reprezentuje b\u0142\u0105d obserwacji z danych pochodz\u0105cych z walidacji krzy\u017cowej.<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #008080;\">#identify best cp value to use\n<span style=\"color: #000000;\">best &lt;- tree$cptable[which. <span style=\"color: #3366ff;\">min<\/span> (tree$cptable[,\" <span style=\"color: #008000;\">xerror<\/span> \"]),\" <span style=\"color: #008000;\">CP<\/span> \"]\n\n<span style=\"color: #008080;\">#produce a pruned tree based on the best cp value\n<\/span>pruned_tree &lt;- <span style=\"color: #3366ff;\">prune<\/span> (tree, cp=best)\n\n<span style=\"color: #008080;\">#plot the pruned tree\n<\/span>prp(pruned_tree,\n    faclen= <span style=\"color: #008000;\">0<\/span> , <span style=\"color: #008080;\">#use full names for factor labels<\/span>\n    extra= <span style=\"color: #008000;\">1<\/span> , <span style=\"color: #008080;\">#display number of obs. for each terminal node<\/span>\n    roundint= <span style=\"color: #008000;\">F<\/span> , <span style=\"color: #008080;\">#don't round to integers in output<\/span>\n    digits= <span style=\"color: #008000;\">5<\/span> ) <span style=\"color: #008080;\">#display 5 decimal places in output\n<\/span><\/span><\/span><\/span><\/strong><\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12094 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" alt=\"Drzewo regresji w R\" width=\"425\" height=\"326\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Widzimy, \u017ce ostatecznie przyci\u0119te drzewo ma sze\u015b\u0107 w\u0119z\u0142\u00f3w ko\u0144cowych. Ka\u017cdy w\u0119ze\u0142 li\u015bcia wy\u015bwietla przewidywan\u0105 pensj\u0119 graczy w tym w\u0119\u017ale, a tak\u017ce liczb\u0119 obserwacji z oryginalnego zbioru danych, kt\u00f3re nale\u017c\u0105 do tej klasy.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na przyk\u0142ad widzimy, \u017ce w oryginalnym zbiorze danych by\u0142o 90 graczy z do\u015bwiadczeniem kr\u00f3tszym ni\u017c 4,5 roku, a ich \u015brednia pensja wynios\u0142a 225,83 tys. dolar\u00f3w.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12095 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre4.png\" alt=\"Interpretacja drzewa regresji w R\" width=\"403\" height=\"302\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 4: U\u017cyj drzewa do przewidywania.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Mo\u017cemy wykorzysta\u0107 ostatecznie przyci\u0119te drzewo, aby przewidzie\u0107 pensj\u0119 danego gracza na podstawie jego wieloletniego do\u015bwiadczenia i \u015brednich home run\u00f3w.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na przyk\u0142ad gracz, kt\u00f3ry ma 7 lat do\u015bwiadczenia i \u015brednio 4 home runy, ma oczekiwan\u0105 pensj\u0119 w wysoko\u015bci <strong>502,81 tys. dolar\u00f3w<\/strong> .<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12096 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre5.png\" alt=\"Przyk\u0142ad drzewa regresji w R\" width=\"422\" height=\"306\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Aby to potwierdzi\u0107, mo\u017cemy u\u017cy\u0107 funkcji <strong>przewidywania()<\/strong> w R:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #008080;\">#define new player\n<span style=\"color: #000000;\">new &lt;- data.frame(Years=7, HmRun=4)\n\n<\/span>#use pruned tree to predict salary of this player\n<span style=\"color: #000000;\">predict(pruned_tree, newdata=new)\n\n502.8079<\/span><\/span><\/span><\/strong><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Przyk\u0142ad 2: Budowa drzewa klasyfikacyjnego w R<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">W tym przyk\u0142adzie wykorzystamy zbi\u00f3r danych <strong>ptitanic<\/strong> z pakietu <strong>rpart.plot<\/strong> , kt\u00f3ry zawiera r\u00f3\u017cne informacje o pasa\u017cerach na pok\u0142adzie Titanica.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wykorzystamy ten zbi\u00f3r danych do stworzenia drzewa klasyfikacyjnego, kt\u00f3re wykorzystuje zmienne predykcyjne <em>class<\/em> , <em>p\u0142e\u0107<\/em> i <em>wiek<\/em> do przewidzenia, czy dany pasa\u017cer prze\u017cy\u0142, czy nie.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aby utworzy\u0107 to drzewo klasyfikacji, wykonaj nast\u0119puj\u0105ce kroki.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 1: Za\u0142aduj niezb\u0119dne pakiety.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Najpierw za\u0142adujemy niezb\u0119dne pakiety dla tego przyk\u0142adu:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\">library<\/span> (rpart) <span style=\"color: #008080;\">#for fitting decision trees<\/span>\n<span style=\"color: #993300;\">library<\/span> (rpart.plot) <span style=\"color: #008080;\">#for plotting decision trees\n<\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\"><strong>Krok 2: Zbuduj pocz\u0105tkowe drzewo klasyfikacji.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Najpierw zbudujemy du\u017ce drzewo klasyfikacji pocz\u0105tkowej. Mo\u017cemy zagwarantowa\u0107, \u017ce drzewo b\u0119dzie du\u017ce, u\u017cywaj\u0105c ma\u0142ej warto\u015bci <strong>cp<\/strong> , kt\u00f3ra oznacza \u201eparametr z\u0142o\u017cono\u015bci\u201d.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Oznacza to, \u017ce b\u0119dziemy dokonywa\u0107 dalszych podzia\u0142\u00f3w na drzewie klasyfikacyjnym, o ile og\u00f3lne dopasowanie modelu wzro\u015bnie co najmniej o warto\u015b\u0107 okre\u015blon\u0105 przez cp.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie u\u017cyjemy funkcji <strong>printcp()<\/strong> do wydrukowania wynik\u00f3w modelu:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #008080;\">#build the initial tree\n<\/span><span style=\"color: #000000;\">tree &lt;- rpart(survived~pclass+sex+age, data=ptitanic, control=rpart. <span style=\"color: #3366ff;\">control<\/span> (cp= <span style=\"color: #008000;\">.0001<\/span> ))\n\n<span style=\"color: #008080;\">#view results<\/span>\nprintcp(tree)\n\nVariables actually used in tree construction:\n[1] age pclass sex   \n\nRoot node error: 500\/1309 = 0.38197\n\nn=1309 \n\n      CP nsplit rel error xerror xstd\n1 0.4240 0 1.000 1.000 0.035158\n2 0.0140 1 0.576 0.576 0.029976\n3 0.0095 3 0.548 0.578 0.030013\n4 0.0070 7 0.510 0.552 0.029517\n5 0.0050 9 0.496 0.528 0.029035\n6 0.0025 11 0.486 0.532 0.029117\n7 0.0020 19 0.464 0.536 0.029198\n8 0.0001 22 0.458 0.528 0.029035\n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\"><strong>Krok 3: Przytnij drzewo.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie przycinamy drzewo regresji, aby znale\u017a\u0107 optymaln\u0105 warto\u015b\u0107 cp (parametr z\u0142o\u017cono\u015bci), kt\u00f3ra prowadzi do najni\u017cszego b\u0142\u0119du testu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nale\u017cy zauwa\u017cy\u0107, \u017ce optymaln\u0105 warto\u015bci\u0105 cp jest ta, kt\u00f3ra prowadzi do najni\u017cszego <strong>b\u0142\u0119du x<\/strong> w poprzednim wyniku, co reprezentuje b\u0142\u0105d obserwacji z danych pochodz\u0105cych z walidacji krzy\u017cowej.<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #008080;\">#identify best cp value to use\n<span style=\"color: #000000;\">best &lt;- tree$cptable[which. <span style=\"color: #3366ff;\">min<\/span> (tree$cptable[,\" <span style=\"color: #008000;\">xerror<\/span> \"]),\" <span style=\"color: #008000;\">CP<\/span> \"]\n\n<span style=\"color: #008080;\">#produce a pruned tree based on the best cp value\n<\/span>pruned_tree &lt;- <span style=\"color: #3366ff;\">prune<\/span> (tree, cp=best)\n\n<span style=\"color: #008080;\">#plot the pruned tree\n<\/span>prp(pruned_tree,\n    faclen= <span style=\"color: #008000;\">0<\/span> , #use full names for factor labels\n    extra= <span style=\"color: #008000;\">1<\/span> , #display number of obs. for each terminal node\n    roundint= <span style=\"color: #008000;\">F<\/span> , #don't round to integers in output\n    digits= <span style=\"color: #008000;\">5<\/span> ) #display 5 decimal places in output\n<\/span><\/span><\/span><\/strong><\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12098 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre6.png\" alt=\"Klasyfikacja drzew w R\" width=\"415\" height=\"422\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Widzimy, \u017ce ostatecznie przyci\u0119te drzewo ma 10 w\u0119z\u0142\u00f3w ko\u0144cowych. Ka\u017cdy w\u0119ze\u0142 ko\u0144cowy wskazuje liczb\u0119 pasa\u017cer\u00f3w, kt\u00f3rzy zgin\u0119li, a tak\u017ce liczb\u0119 ocala\u0142ych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na przyk\u0142ad w lewym w\u0119\u017ale widzimy, \u017ce zgin\u0119\u0142o 664 pasa\u017cer\u00f3w, a 136 prze\u017cy\u0142o.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12099 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre7.png\" alt=\"Interpretacja drzewa klasyfikacyjnego w R\" width=\"462\" height=\"463\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 4: U\u017cyj drzewa do przewidywania.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Mo\u017cemy wykorzysta\u0107 ostatnie przyci\u0119te drzewo, aby przewidzie\u0107 prawdopodobie\u0144stwo prze\u017cycia danego pasa\u017cera na podstawie jego klasy, wieku i p\u0142ci.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Przyk\u0142adowo, prawdopodobie\u0144stwo prze\u017cycia pasa\u017cera p\u0142ci m\u0119skiej w wieku 8 lat i podr\u00f3\u017cuj\u0105cego w pierwszej klasie wynosi 11\/29 = 37,9%.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-12100 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre8.png\" alt=\"Klasyfikacja drzew w R\" width=\"402\" height=\"417\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Pe\u0142ny kod R u\u017cyty w tych przyk\u0142adach mo\u017cna znale\u017a\u0107 <a href=\"https:\/\/github.com\/Statorials\/R-Guides\/blob\/main\/CART_models.R\" target=\"_blank\" rel=\"noopener noreferrer\">tutaj<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Gdy zwi\u0105zek mi\u0119dzy zestawem zmiennych predykcyjnych a zmienn\u0105 odpowiedzi jest liniowy, metody takie jak wielokrotna regresja liniowa mog\u0105 stworzy\u0107 dok\u0142adne modele predykcyjne. Je\u015bli jednak zwi\u0105zek mi\u0119dzy zestawem predyktor\u00f3w a reakcj\u0105 jest bardziej z\u0142o\u017cony, metody nieliniowe cz\u0119sto pozwalaj\u0105 na uzyskanie dok\u0142adniejszych modeli. Jedn\u0105 z takich metod s\u0105 drzewa klasyfikacji i regresji (CART), kt\u00f3re wykorzystuj\u0105 zestaw zmiennych [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1218","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Jak dopasowa\u0107 drzewa klasyfikacji i regresji w R<\/title>\n<meta name=\"description\" content=\"W tym samouczku wyja\u015bniono, jak dopasowa\u0107 drzewa klasyfikacji i regresji w j\u0119zyku R, wraz z przyk\u0142adami krok po kroku.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w R\" \/>\n<meta property=\"og:description\" content=\"W tym samouczku wyja\u015bniono, jak dopasowa\u0107 drzewa klasyfikacji i regresji w j\u0119zyku R, wraz z przyk\u0142adami krok po kroku.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T06:02:37+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minut\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/\",\"url\":\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/\",\"name\":\"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w R\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T06:02:37+00:00\",\"dateModified\":\"2023-07-27T06:02:37+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"W tym samouczku wyja\u015bniono, jak dopasowa\u0107 drzewa klasyfikacji i regresji w j\u0119zyku R, wraz z przyk\u0142adami krok po kroku.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w r\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w R","description":"W tym samouczku wyja\u015bniono, jak dopasowa\u0107 drzewa klasyfikacji i regresji w j\u0119zyku R, wraz z przyk\u0142adami krok po kroku.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/","og_locale":"pl_PL","og_type":"article","og_title":"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w R","og_description":"W tym samouczku wyja\u015bniono, jak dopasowa\u0107 drzewa klasyfikacji i regresji w j\u0119zyku R, wraz z przyk\u0142adami krok po kroku.","og_url":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/","og_site_name":"Statorials","article_published_time":"2023-07-27T06:02:37+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/arbre3.png"}],"author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"6 minut"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/","url":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/","name":"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w R","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T06:02:37+00:00","dateModified":"2023-07-27T06:02:37+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"W tym samouczku wyja\u015bniono, jak dopasowa\u0107 drzewa klasyfikacji i regresji w j\u0119zyku R, wraz z przyk\u0142adami krok po kroku.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/drzewa-klasyfikacyjne-i-regresyjne-w-r\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Jak dopasowa\u0107 drzewa klasyfikacji i regresji w r"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1218","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1218"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1218\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1218"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1218"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1218"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}