{"id":1191,"date":"2023-07-27T08:26:08","date_gmt":"2023-07-27T08:26:08","guid":{"rendered":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/"},"modified":"2023-07-27T08:26:08","modified_gmt":"2023-07-27T08:26:08","slug":"regresja-grzbietu","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/","title":{"rendered":"Wprowadzenie do regresji grzbietu"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">W zwyk\u0142ej <a href=\"https:\/\/statorials.org\/pl\/wielokrotna-regresja-liniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wielokrotnej regresji liniowej<\/a> u\u017cywamy zestawu <em>p<\/em> zmiennych predykcyjnych i <a href=\"https:\/\/statorials.org\/pl\/zmienne-odpowiedzi-wyjasniajace\/\" target=\"_blank\" rel=\"noopener noreferrer\">zmiennej odpowiedzi<\/a> , aby dopasowa\u0107 model w postaci:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X <sub>1<\/sub> <sub>+<\/sub> \u03b2 <sub>2<\/sub> X <sub>2<\/sub> + \u2026 + \u03b2 <sub>p<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Z\u0142oto:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Y<\/strong> : Zmienna odpowiedzi<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>X <sub>j<\/sub><\/strong> : j- <sup>ta<\/sup> zmienna predykcyjna<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b2 <sub>j<\/sub><\/strong> : \u015aredni wp\u0142yw na Y jednojednostkowego wzrostu X <sub>j<\/sub> , przy za\u0142o\u017ceniu, \u017ce wszystkie inne predyktory s\u0105 sta\u0142e<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b5<\/strong> : Termin b\u0142\u0119du<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Warto\u015bci \u03b2 <sub>0<\/sub> , \u03b2 <sub>1<\/sub> , B <sub>2<\/sub> , \u2026, \u03b2 <sub>p<\/sub> dobieramy <strong>metod\u0105 najmniejszych kwadrat\u00f3w<\/strong> , kt\u00f3ra minimalizuje sum\u0119 kwadrat\u00f3w reszt (RSS):<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Z\u0142oto:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Grecki symbol oznaczaj\u0105cy <em>sum\u0119<\/em><\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : rzeczywista warto\u015b\u0107 odpowiedzi dla <sup>i-tej<\/sup> obserwacji<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : Przewidywana warto\u015b\u0107 odpowiedzi na podstawie modelu wielokrotnej regresji liniowej<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Jednak\u017ce, gdy zmienne predykcyjne s\u0105 silnie skorelowane, <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wsp\u00f3\u0142liniowo\u015b\u0107<\/a> mo\u017ce sta\u0107 si\u0119 problemem. Mo\u017ce to sprawi\u0107, \u017ce szacunki wsp\u00f3\u0142czynnik\u00f3w modelu b\u0119d\u0105 niewiarygodne i b\u0119d\u0105 wykazywa\u0107 du\u017c\u0105 wariancj\u0119.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednym ze sposob\u00f3w obej\u015bcia tego problemu bez ca\u0142kowitego usuwania niekt\u00f3rych zmiennych predykcyjnych z modelu jest zastosowanie metody znanej jako <strong>regresja grzbietowa<\/strong> , kt\u00f3ra zamiast tego ma na celu zminimalizowanie nast\u0119puj\u0105cych czynnik\u00f3w:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">gdzie <em>j<\/em> przechodzi od 1 do <em>p<\/em> i<\/span> <span style=\"color: #000000;\">\u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ten drugi cz\u0142on r\u00f3wnania nazywany jest <em>kar\u0105 za wycofanie<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Gdy \u03bb = 0, ten sk\u0142adnik kary nie ma \u017cadnego efektu, a regresja grzbietowa daje takie same szacunki wsp\u00f3\u0142czynnik\u00f3w, jak metoda najmniejszych kwadrat\u00f3w. Jednak\u017ce, gdy \u03bb zbli\u017ca si\u0119 do niesko\u0144czono\u015bci, kara za skurcz staje si\u0119 bardziej wp\u0142ywowa, a szacunki szczytowego wsp\u00f3\u0142czynnika regresji zbli\u017caj\u0105 si\u0119 do zera.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Og\u00f3lnie rzecz bior\u0105c, najmniej wp\u0142ywowe zmienne predykcyjne w modelu b\u0119d\u0105 najszybciej spada\u0107 do zera.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Dlaczego warto stosowa\u0107 regresj\u0119 grzbietu?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Przewag\u0105 regresji Ridge&#8217;a nad regresj\u0105 metod\u0105 najmniejszych kwadrat\u00f3w jest <a href=\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\" target=\"_blank\" rel=\"noopener noreferrer\">kompromis w postaci odchylenia wariancji<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Przypomnijmy, \u017ce b\u0142\u0105d \u015bredniokwadratowy (MSE) to metryka, za pomoc\u0105 kt\u00f3rej mo\u017cemy zmierzy\u0107 dok\u0142adno\u015b\u0107 danego modelu i oblicza si\u0119 go w nast\u0119puj\u0105cy spos\u00f3b:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Odchylenie( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = wariancja + b\u0142\u0105d <sup>2<\/sup> + b\u0142\u0105d nieredukowalny<\/span><\/p>\n<p> <span style=\"color: #000000;\">Podstawow\u0105 ide\u0105 regresji Ridge&#8217;a jest wprowadzenie ma\u0142ego b\u0142\u0119du systematycznego, dzi\u0119ki czemu wariancja mo\u017ce zosta\u0107 znacznie zmniejszona, co prowadzi do ni\u017cszego og\u00f3lnego MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aby to zilustrowa\u0107, rozwa\u017c nast\u0119puj\u0105cy wykres:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11851 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" alt=\"Kompromis odchylenia i wariancji regresji grzbietowej\" width=\"468\" height=\"341\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Nale\u017cy zauwa\u017cy\u0107, \u017ce wraz ze wzrostem \u03bb wariancja znacznie maleje przy bardzo ma\u0142ym wzro\u015bcie obci\u0105\u017cenia. Jednak powy\u017cej pewnego punktu wariancja maleje wolniej, a spadek wsp\u00f3\u0142czynnik\u00f3w prowadzi do ich znacznego niedoszacowania, co prowadzi do gwa\u0142townego wzrostu obci\u0105\u017cenia systematycznego.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Z wykresu widzimy, \u017ce MSE testu jest najni\u017csze, gdy wybierzemy warto\u015b\u0107 \u03bb, kt\u00f3ra zapewnia optymalny kompromis mi\u0119dzy obci\u0105\u017ceniem a wariancj\u0105.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Gdy \u03bb = 0, sk\u0142adnik karny w regresji grzbietowej nie ma \u017cadnego wp\u0142ywu i dlatego daje takie same oszacowania wsp\u00f3\u0142czynnik\u00f3w, jak metoda najmniejszych kwadrat\u00f3w. Jednak\u017ce, zwi\u0119kszaj\u0105c \u03bb do pewnego punktu, mo\u017cemy zmniejszy\u0107 ca\u0142kowite MSE testu.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11852 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete2.png\" alt=\"Test regresji grzbietu Redukcja MSE\" width=\"529\" height=\"378\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Oznacza to, \u017ce dopasowanie modelu metod\u0105 regresji grzbietowej spowoduje mniejsze b\u0142\u0119dy testowe ni\u017c dopasowanie modelu metod\u0105 najmniejszych kwadrat\u00f3w.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Kroki wykonywania regresji grzbietu w praktyce<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Do przeprowadzenia regresji grzbietu mo\u017cna zastosowa\u0107 nast\u0119puj\u0105ce kroki:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 1: Oblicz macierz korelacji i warto\u015bci VIF dla zmiennych predykcyjnych.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Najpierw musimy stworzy\u0107 <a href=\"https:\/\/statorials.org\/pl\/jak-czytac-macierz-korelacji\/\" target=\"_blank\" rel=\"noopener noreferrer\">macierz korelacji<\/a> i obliczy\u0107 <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">warto\u015bci VIF (wsp\u00f3\u0142czynnik inflacji wariancji)<\/a> dla ka\u017cdej zmiennej predykcyjnej.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u015bli wykryjemy siln\u0105 korelacj\u0119 mi\u0119dzy zmiennymi predykcyjnymi a wysokimi warto\u015bciami VIF (niekt\u00f3re teksty definiuj\u0105 \u201ewysok\u0105\u201d warto\u015b\u0107 VIF na 5, podczas gdy inne u\u017cywaj\u0105 10), w\u00f3wczas prawdopodobnie w\u0142a\u015bciwa b\u0119dzie regresja grzbietu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u015bli jednak w danych nie wyst\u0119puje wsp\u00f3\u0142liniowo\u015b\u0107, wykonanie regresji grzbietowej mo\u017ce nie by\u0107 konieczne. Zamiast tego mo\u017cemy wykona\u0107 zwyk\u0142\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 2: Standaryzuj ka\u017cd\u0105 zmienn\u0105 predykcyjn\u0105.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Przed wykonaniem regresji grzbietowej musimy przeskalowa\u0107 dane w taki spos\u00f3b, aby ka\u017cda zmienna predykcyjna mia\u0142a \u015bredni\u0105 0 i odchylenie standardowe 1. Dzi\u0119ki temu \u017cadna pojedyncza zmienna predykcyjna nie b\u0119dzie mia\u0142a nadmiernego wp\u0142ywu podczas przeprowadzania regresji grzbietowej.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 3: Dopasuj model regresji grzbietu i wybierz warto\u015b\u0107 \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nie ma dok\u0142adnego wzoru, kt\u00f3rego mogliby\u015bmy u\u017cy\u0107, aby okre\u015bli\u0107, jak\u0105 warto\u015b\u0107 zastosowa\u0107 dla \u03bb. W praktyce istniej\u0105 dwa popularne sposoby wyboru \u03bb:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Utw\u00f3rz wykres \u015bladu grzbietu.<\/strong> Jest to wykres wizualizuj\u0105cy warto\u015bci szacunk\u00f3w wsp\u00f3\u0142czynnika w miar\u0119 wzrostu \u03bb w kierunku niesko\u0144czono\u015bci. Zazwyczaj wybieramy \u03bb jako warto\u015b\u0107, przy kt\u00f3rej wi\u0119kszo\u015b\u0107 szacunk\u00f3w wsp\u00f3\u0142czynnik\u00f3w zaczyna si\u0119 stabilizowa\u0107.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11853 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete3.png\" alt=\"\u015alad grzbietu\" width=\"539\" height=\"389\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) Oblicz test MSE dla ka\u017cdej warto\u015bci \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Innym sposobem wyboru \u03bb jest po prostu obliczenie testowego MSE ka\u017cdego modelu z r\u00f3\u017cnymi warto\u015bciami \u03bb i wybranie \u03bb jako warto\u015bci, kt\u00f3ra daje najni\u017cszy testowy MSE.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Zalety i wady regresji grzbietu<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Najwi\u0119ksz\u0105 <strong>zalet\u0105<\/strong> regresji Ridge&#8217;a jest jej zdolno\u015b\u0107 do generowania mniejszego testu \u015bredniokwadratowego b\u0142\u0119du (MSE) ni\u017c metoda najmniejszych kwadrat\u00f3w, gdy wyst\u0119puje wsp\u00f3\u0142liniowo\u015b\u0107.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednak najwi\u0119ksz\u0105 <strong>wad\u0105<\/strong> regresji Ridge&#8217;a jest niemo\u017cno\u015b\u0107 przeprowadzenia selekcji zmiennych, poniewa\u017c uwzgl\u0119dnia ona wszystkie zmienne predykcyjne w ostatecznym modelu. Poniewa\u017c niekt\u00f3re predyktory zostan\u0105 zredukowane bardzo blisko zera, mo\u017ce to utrudni\u0107 interpretacj\u0119 wynik\u00f3w modelu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W praktyce regresja Ridge&#8217;a mo\u017ce stworzy\u0107 model umo\u017cliwiaj\u0105cy lepsze prognozy w por\u00f3wnaniu z modelem najmniejszych kwadrat\u00f3w, ale cz\u0119sto trudniej jest zinterpretowa\u0107 wyniki modelu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W zale\u017cno\u015bci od tego, czy wa\u017cniejsza jest dla Ciebie interpretacja modelu czy dok\u0142adno\u015b\u0107 prognozy, mo\u017cesz w r\u00f3\u017cnych scenariuszach zastosowa\u0107 zwyk\u0142\u0105 metod\u0119 najmniejszych kwadrat\u00f3w lub regresj\u0119 grzbietow\u0105.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regresja grzbietowa w R i Pythonie<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Poni\u017csze samouczki wyja\u015bniaj\u0105, jak przeprowadzi\u0107 regresj\u0119 grzbietow\u0105 w R i Pythonie, dw\u00f3ch najcz\u0119\u015bciej u\u017cywanych j\u0119zykach do dopasowywania modeli regresji grzbietowej:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja grzbietu w R (krok po kroku)<\/a><br \/> <a href=\"https:\/\/statorials.org\/pl\/regresja-grzebienia-w-pythonie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja grzbietu w Pythonie (krok po kroku)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>W zwyk\u0142ej wielokrotnej regresji liniowej u\u017cywamy zestawu p zmiennych predykcyjnych i zmiennej odpowiedzi , aby dopasowa\u0107 model w postaci: Y = \u03b2 0 + \u03b2 1 X 1 + \u03b2 2 X 2 + \u2026 + \u03b2 p Z\u0142oto: Y : Zmienna odpowiedzi X j : j- ta zmienna predykcyjna \u03b2 j : \u015aredni wp\u0142yw [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1191","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Wprowadzenie do regresji grzbietowej \u2014 statoriale<\/title>\n<meta name=\"description\" content=\"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji grzbietu, \u0142\u0105cznie z obja\u015bnieniami i przyk\u0142adami.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wprowadzenie do regresji grzbietowej \u2014 statoriale\" \/>\n<meta property=\"og:description\" content=\"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji grzbietu, \u0142\u0105cznie z obja\u015bnieniami i przyk\u0142adami.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:26:08+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minut\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\",\"url\":\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\",\"name\":\"Wprowadzenie do regresji grzbietowej \u2014 statoriale\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T08:26:08+00:00\",\"dateModified\":\"2023-07-27T08:26:08+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji grzbietu, \u0142\u0105cznie z obja\u015bnieniami i przyk\u0142adami.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wprowadzenie do regresji grzbietu\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wprowadzenie do regresji grzbietowej \u2014 statoriale","description":"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji grzbietu, \u0142\u0105cznie z obja\u015bnieniami i przyk\u0142adami.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/","og_locale":"pl_PL","og_type":"article","og_title":"Wprowadzenie do regresji grzbietowej \u2014 statoriale","og_description":"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji grzbietu, \u0142\u0105cznie z obja\u015bnieniami i przyk\u0142adami.","og_url":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:26:08+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png"}],"author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"5 minut"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/","url":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/","name":"Wprowadzenie do regresji grzbietowej \u2014 statoriale","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T08:26:08+00:00","dateModified":"2023-07-27T08:26:08+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji grzbietu, \u0142\u0105cznie z obja\u015bnieniami i przyk\u0142adami.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/regresja-grzbietu\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/regresja-grzbietu\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Wprowadzenie do regresji grzbietu"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1191","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1191"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1191\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1191"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1191"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1191"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}