{"id":1192,"date":"2023-07-27T08:19:55","date_gmt":"2023-07-27T08:19:55","guid":{"rendered":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/"},"modified":"2023-07-27T08:19:55","modified_gmt":"2023-07-27T08:19:55","slug":"regresja-grzebienia-w-r","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/","title":{"rendered":"Regresja grzbietu w r (krok po kroku)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\"><a href=\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja grzbietowa<\/a> to metoda, kt\u00f3rej mo\u017cemy u\u017cy\u0107 do dopasowania modelu regresji, gdy w danych wyst\u0119puje <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wieloliniowo\u015b\u0107<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">W skr\u00f3cie, regresja metod\u0105 najmniejszych kwadrat\u00f3w pr\u00f3buje znale\u017a\u0107 oszacowania wsp\u00f3\u0142czynnik\u00f3w, kt\u00f3re minimalizuj\u0105 rezydualn\u0105 sum\u0119 kwadrat\u00f3w (RSS):<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> )2<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Z\u0142oto:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Grecki symbol oznaczaj\u0105cy <em>sum\u0119<\/em><\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : rzeczywista warto\u015b\u0107 odpowiedzi dla <sup>i-tej<\/sup> obserwacji<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : Przewidywana warto\u015b\u0107 odpowiedzi na podstawie modelu wielokrotnej regresji liniowej<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">I odwrotnie, regresja grzbietu ma na celu zminimalizowanie nast\u0119puj\u0105cych element\u00f3w:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">gdzie <em>j<\/em> przechodzi od 1 do <em>p<\/em> zmiennych predykcyjnych i \u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ten drugi cz\u0142on r\u00f3wnania nazywany jest <em>kar\u0105 za wycofanie<\/em> . W regresji grzbietowej wybieramy warto\u015b\u0107 \u03bb, kt\u00f3ra daje najni\u017cszy mo\u017cliwy test MSE (\u015bredni b\u0142\u0105d kwadratowy).<\/span><\/p>\n<p> <span style=\"color: #000000;\">W tym samouczku przedstawiono krok po kroku przyk\u0142ad wykonania regresji grzbietu w j\u0119zyku R.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Krok 1: Za\u0142aduj dane<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">W tym przyk\u0142adzie u\u017cyjemy wbudowanego zbioru danych R o nazwie <strong>mtcars<\/strong> . U\u017cyjemy <strong>hp<\/strong> jako zmiennej odpowiedzi i nast\u0119puj\u0105cych zmiennych jako predyktor\u00f3w:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">mpg<\/span><\/li>\n<li> <span style=\"color: #000000;\">waga<\/span><\/li>\n<li> <span style=\"color: #000000;\">g\u00f3wno<\/span><\/li>\n<li> <span style=\"color: #000000;\">sek<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Do wykonania regresji grzbietowej wykorzystamy funkcje z pakietu <strong>glmnet<\/strong> . Pakiet ten wymaga, aby <a href=\"https:\/\/statorials.org\/pl\/zmienne-odpowiedzi-wyjasniajace\/\" target=\"_blank\" rel=\"noopener noreferrer\">zmienna odpowiedzi<\/a> by\u0142a wektorem, a zestaw zmiennych predykcyjnych by\u0142 klasy <strong>data.matrix<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Poni\u017cszy kod pokazuje jak zdefiniowa\u0107 nasze dane:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#define response variable<\/span>\ny &lt;- mtcars$hp\n\n<span style=\"color: #008080;\">#define matrix of predictor variables\n<\/span>x &lt;- data.matrix(mtcars[, c('mpg', 'wt', 'drat', 'qsec')])\n<\/strong><\/span><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Krok 2: Dopasuj model regresji grzbietu<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie u\u017cyjemy funkcji <strong>glmnet()<\/strong> , aby dopasowa\u0107 model regresji Ridge&#8217;a i okre\u015bli\u0107 <strong>alfa=0<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nale\u017cy pami\u0119ta\u0107, \u017ce ustawienie alfa r\u00f3wnego 1 jest r\u00f3wnoznaczne z u\u017cyciem regresji Lasso, a ustawienie alfa na warto\u015b\u0107 z zakresu od 0 do 1 jest r\u00f3wnoznaczne z u\u017cyciem elastycznej siatki.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nale\u017cy r\u00f3wnie\u017c pami\u0119ta\u0107, \u017ce regresja grzbietowa wymaga standaryzacji danych w taki spos\u00f3b, aby ka\u017cda zmienna predykcyjna mia\u0142a \u015bredni\u0105 0 i odchylenie standardowe 1.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na szcz\u0119\u015bcie <strong>glmnet()<\/strong> automatycznie wykonuje t\u0119 standaryzacj\u0119 za Ciebie. Je\u015bli ju\u017c znormalizowa\u0142e\u015b zmienne, mo\u017cesz okre\u015bli\u0107 <strong>standize=False<\/strong> .<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\"><span style=\"color: #000000;\"><span style=\"color: #993300;\">library<\/span> (glmnet)<\/span>\n\n#fit ridge regression model\n<\/span>model &lt;- glmnet(x, y, alpha = <span style=\"color: #008000;\">0<\/span> )\n\n<span style=\"color: #008080;\">#view summary of model\n<\/span>summary(model)\n\n          Length Class Mode   \na0 100 -none- numeric\nbeta 400 dgCMatrix S4     \ndf 100 -none- numeric\ndim 2 -none- numeric\nlambda 100 -none- numeric\ndev.ratio 100 -none- numeric\nnulldev 1 -none- numeric\nnpasses 1 -none- numeric\njerr 1 -none- numeric\noffset 1 -none- logical\ncall 4 -none- call   \nnobs 1 -none- numeric\n<\/strong><\/span><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Krok 3: Wybierz optymaln\u0105 warto\u015b\u0107 Lambdy<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie zidentyfikujemy warto\u015b\u0107 lambda, kt\u00f3ra daje najni\u017cszy \u015bredni b\u0142\u0105d kwadratowy testu (MSE), stosuj\u0105c <a href=\"https:\/\/statorials.org\/pl\/k-krotna-walidacja-krzyzowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-krotn\u0105 walidacj\u0119 krzy\u017cow\u0105<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na szcz\u0119\u015bcie <strong>glmnet<\/strong> ma funkcj\u0119 <strong>cv.glmnet()<\/strong> , kt\u00f3ra automatycznie wykonuje k-krotn\u0105 weryfikacj\u0119 krzy\u017cow\u0105 przy u\u017cyciu k = 10 razy.<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#perform k-fold cross-validation to find optimal lambda value\n<\/span>cv_model &lt;- cv. <span style=\"color: #3366ff;\">glmnet<\/span> (x, y, alpha = <span style=\"color: #008000;\">0<\/span> )\n\n<span style=\"color: #008080;\">#find optimal lambda value that minimizes test MSE\n<\/span>best_lambda &lt;- cv_model$ <span style=\"color: #3366ff;\">lambda<\/span> . <span style=\"color: #3366ff;\">min<\/span>\nbest_lambda\n\n[1] 10.04567\n\n<span style=\"color: #008080;\">#produce plot of test MSE by lambda value<\/span>\nplot(cv_model) \n<\/strong><\/span><\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11860 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/faiter1.png\" alt=\"walidacja krzy\u017cowa regresji grzbietu w R\" width=\"443\" height=\"426\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Warto\u015b\u0107 lambda minimalizuj\u0105ca test MSE okazuje si\u0119 wynosi\u0107 <strong>10,04567<\/strong> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Krok 4: Przeanalizuj ostateczny model<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Na koniec mo\u017cemy przeanalizowa\u0107 ostateczny model uzyskany na podstawie optymalnej warto\u015bci lambda.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aby uzyska\u0107 estymatory wsp\u00f3\u0142czynnik\u00f3w dla tego modelu, mo\u017cemy u\u017cy\u0107 nast\u0119puj\u0105cego kodu:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#find coefficients of best model\n<\/span>best_model &lt;- glmnet(x, y, alpha = <span style=\"color: #008000;\">0<\/span> , lambda = best_lambda)\ncoef(best_model)\n\n5 x 1 sparse Matrix of class \"dgCMatrix\"\n                    s0\n(Intercept) 475.242646\nmpg -3.299732\nwt 19.431238\ndrat -1.222429\nqsec -17.949721<\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">Mo\u017cemy r\u00f3wnie\u017c utworzy\u0107 wykres \u015bledzenia, aby zwizualizowa\u0107, jak zmieni\u0142y si\u0119 szacunki wsp\u00f3\u0142czynnik\u00f3w ze wzgl\u0119du na wzrost lambda:<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#produce Ridge trace plot<\/span>\nplot(model, xvar = \" <span style=\"color: #008000;\">lambda<\/span> \")<\/strong><\/span> <\/pre>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11861 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/creter2.png\" alt=\"\u015alad grzbietowy w R\" width=\"419\" height=\"411\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Na koniec mo\u017cemy obliczy\u0107 <a href=\"https:\/\/statorials.org\/pl\/dobra-wartosc-r-do-kwadratu\/\" target=\"_blank\" rel=\"noopener noreferrer\">R-kwadrat modelu<\/a> na danych treningowych:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#use fitted best model to make predictions\n<\/span>y_predicted &lt;- <span style=\"color: #3366ff;\">predict<\/span> (model, s = best_lambda, newx = x)\n\n<span style=\"color: #008080;\">#find OHS and SSE<\/span>\nsst &lt;- <span style=\"color: #3366ff;\">sum<\/span> ((y - <span style=\"color: #3366ff;\">mean<\/span> (y))^2)\nsse &lt;- <span style=\"color: #3366ff;\">sum<\/span> ((y_predicted - y)^2)\n\n<span style=\"color: #008080;\">#find R-Squared\n<\/span>rsq &lt;- 1 - sse\/sst\nrsq\n\n[1] 0.7999513\n<\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">Okazuje si\u0119, \u017ce R kwadrat wynosi <strong>0,7999513<\/strong> . Oznacza to, \u017ce najlepszy model by\u0142 w stanie wyja\u015bni\u0107 <strong>79,99%<\/strong> zmienno\u015bci warto\u015bci odpowiedzi danych treningowych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Pe\u0142ny kod R u\u017cyty w tym przyk\u0142adzie znajdziesz <a href=\"https:\/\/github.com\/Statorials\/R-Guides\/blob\/main\/ridge_regression.R\" target=\"_blank\" rel=\"noopener noreferrer\">tutaj<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Regresja grzbietowa to metoda, kt\u00f3rej mo\u017cemy u\u017cy\u0107 do dopasowania modelu regresji, gdy w danych wyst\u0119puje wieloliniowo\u015b\u0107 . W skr\u00f3cie, regresja metod\u0105 najmniejszych kwadrat\u00f3w pr\u00f3buje znale\u017a\u0107 oszacowania wsp\u00f3\u0142czynnik\u00f3w, kt\u00f3re minimalizuj\u0105 rezydualn\u0105 sum\u0119 kwadrat\u00f3w (RSS): RSS = \u03a3(y i \u2013 \u0177 i )2 Z\u0142oto: \u03a3 : Grecki symbol oznaczaj\u0105cy sum\u0119 y i : rzeczywista warto\u015b\u0107 odpowiedzi dla [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1192","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Regresja grzbietu w R (krok po kroku)<\/title>\n<meta name=\"description\" content=\"W tym samouczku wyja\u015bniono, jak wykona\u0107 regresj\u0119 grzbietu w j\u0119zyku R, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Regresja grzbietu w R (krok po kroku)\" \/>\n<meta property=\"og:description\" content=\"W tym samouczku wyja\u015bniono, jak wykona\u0107 regresj\u0119 grzbietu w j\u0119zyku R, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:19:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/faiter1.png\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuty\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/\",\"url\":\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/\",\"name\":\"Regresja grzbietu w R (krok po kroku)\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T08:19:55+00:00\",\"dateModified\":\"2023-07-27T08:19:55+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"W tym samouczku wyja\u015bniono, jak wykona\u0107 regresj\u0119 grzbietu w j\u0119zyku R, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Regresja grzbietu w r (krok po kroku)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Regresja grzbietu w R (krok po kroku)","description":"W tym samouczku wyja\u015bniono, jak wykona\u0107 regresj\u0119 grzbietu w j\u0119zyku R, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/","og_locale":"pl_PL","og_type":"article","og_title":"Regresja grzbietu w R (krok po kroku)","og_description":"W tym samouczku wyja\u015bniono, jak wykona\u0107 regresj\u0119 grzbietu w j\u0119zyku R, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","og_url":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:19:55+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/faiter1.png"}],"author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"3 minuty"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/","url":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/","name":"Regresja grzbietu w R (krok po kroku)","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T08:19:55+00:00","dateModified":"2023-07-27T08:19:55+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"W tym samouczku wyja\u015bniono, jak wykona\u0107 regresj\u0119 grzbietu w j\u0119zyku R, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Regresja grzbietu w r (krok po kroku)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1192","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1192"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1192\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1192"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1192"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1192"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}