{"id":1194,"date":"2023-07-27T08:09:52","date_gmt":"2023-07-27T08:09:52","guid":{"rendered":"https:\/\/statorials.org\/pl\/regresja-lassa\/"},"modified":"2023-07-27T08:09:52","modified_gmt":"2023-07-27T08:09:52","slug":"regresja-lassa","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/regresja-lassa\/","title":{"rendered":"Wprowadzenie do regresji lasso"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">W zwyk\u0142ej <a href=\"https:\/\/statorials.org\/pl\/wielokrotna-regresja-liniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wielokrotnej regresji liniowej<\/a> u\u017cywamy zestawu <em>p<\/em> zmiennych predykcyjnych i <a href=\"https:\/\/statorials.org\/pl\/zmienne-odpowiedzi-wyjasniajace\/\" target=\"_blank\" rel=\"noopener noreferrer\">zmiennej odpowiedzi<\/a> , aby dopasowa\u0107 model w postaci:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Y = \u03b2 <sub>0<\/sub> + \u03b2 <sub>1<\/sub> X <sub>1<\/sub> <sub>+<\/sub> \u03b2 <sub>2<\/sub> X <sub>2<\/sub> + \u2026 + \u03b2 <sub>p<\/sub><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Z\u0142oto:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>Y<\/strong> : Zmienna odpowiedzi<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>X <sub>j<\/sub><\/strong> : j- <sup>ta<\/sup> zmienna predykcyjna<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b2 <sub>j<\/sub><\/strong> : \u015aredni wp\u0142yw na Y jednojednostkowego wzrostu X <sub>j<\/sub> , przy za\u0142o\u017ceniu, \u017ce wszystkie inne predyktory s\u0105 sta\u0142e<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03b5<\/strong> : Termin b\u0142\u0119du<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Warto\u015bci \u03b2 <sub>0<\/sub> , \u03b2 <sub>1<\/sub> , B <sub>2<\/sub> , \u2026, \u03b2 <sub>p<\/sub> dobieramy <strong>metod\u0105 najmniejszych kwadrat\u00f3w<\/strong> , kt\u00f3ra minimalizuje sum\u0119 kwadrat\u00f3w reszt (RSS):<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS = \u03a3(y <sub>i<\/sub> \u2013 \u0177 <sub>i<\/sub> ) <sup>2<\/sup><\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Z\u0142oto:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03a3<\/strong> : Grecki symbol oznaczaj\u0105cy <em>sum\u0119<\/em><\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub><\/strong> : rzeczywista warto\u015b\u0107 odpowiedzi dla <sup>i-tej<\/sup> obserwacji<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u0177 <sub>i<\/sub><\/strong> : Przewidywana warto\u015b\u0107 odpowiedzi na podstawie modelu wielokrotnej regresji liniowej<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Jednak\u017ce, gdy zmienne predykcyjne s\u0105 silnie skorelowane, <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wsp\u00f3\u0142liniowo\u015b\u0107<\/a> mo\u017ce sta\u0107 si\u0119 problemem. Mo\u017ce to sprawi\u0107, \u017ce szacunki wsp\u00f3\u0142czynnik\u00f3w modelu b\u0119d\u0105 niewiarygodne i b\u0119d\u0105 wykazywa\u0107 du\u017c\u0105 wariancj\u0119. Oznacza to, \u017ce gdy model zostanie zastosowany do nowego zbioru danych, kt\u00f3rego nigdy wcze\u015bniej nie widzia\u0142, prawdopodobnie b\u0119dzie dzia\u0142a\u0142 s\u0142abo.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednym ze sposob\u00f3w obej\u015bcia tego problemu jest u\u017cycie metody znanej jako <strong>regresja lasso<\/strong> , kt\u00f3ra zamiast tego ma na celu zminimalizowanie nast\u0119puj\u0105cych element\u00f3w:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>RSS + \u03bb\u03a3|\u03b2 <sub>j<\/sub> |<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">gdzie <em>j<\/em> przechodzi od 1 do <em>p<\/em> i \u03bb \u2265 0.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ten drugi cz\u0142on r\u00f3wnania nazywany jest <em>kar\u0105 za wycofanie<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Gdy \u03bb = 0, ten sk\u0142adnik kary nie ma \u017cadnego efektu, a regresja lasso daje takie same szacunki wsp\u00f3\u0142czynnik\u00f3w, jak metoda najmniejszych kwadrat\u00f3w.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednak\u017ce, gdy \u03bb zbli\u017ca si\u0119 do niesko\u0144czono\u015bci, kara za usuni\u0119cie staje si\u0119 bardziej wp\u0142ywowa, a zmienne predykcyjne, kt\u00f3rych nie mo\u017cna zaimportowa\u0107 do modelu, s\u0105 redukowane do zera, a niekt\u00f3re nawet usuwane z modelu.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Dlaczego warto stosowa\u0107 regresj\u0119 Lasso?<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Przewag\u0105 regresji lasso nad regresj\u0105 metod\u0105 najmniejszych kwadrat\u00f3w jest <a href=\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\" target=\"_blank\" rel=\"noopener noreferrer\">kompromis w zakresie odchylenia i wariancji<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Przypomnijmy, \u017ce b\u0142\u0105d \u015bredniokwadratowy (MSE) to metryka, za pomoc\u0105 kt\u00f3rej mo\u017cemy zmierzy\u0107 dok\u0142adno\u015b\u0107 danego modelu i oblicza si\u0119 go w nast\u0119puj\u0105cy spos\u00f3b:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Odchylenie( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = wariancja + b\u0142\u0105d <sup>2<\/sup> + b\u0142\u0105d nieredukowalny<\/span><\/p>\n<p> <span style=\"color: #000000;\">Podstawow\u0105 ide\u0105 regresji lasso jest wprowadzenie ma\u0142ego b\u0142\u0119du systematycznego, dzi\u0119ki czemu wariancja mo\u017ce zosta\u0107 znacznie zmniejszona, co prowadzi do ni\u017cszego og\u00f3lnego MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aby to zilustrowa\u0107, rozwa\u017c nast\u0119puj\u0105cy wykres:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11851 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" alt=\"Kompromis odchylenia i wariancji regresji grzbietowej\" width=\"468\" height=\"341\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Nale\u017cy zauwa\u017cy\u0107, \u017ce wraz ze wzrostem \u03bb wariancja znacznie maleje przy bardzo ma\u0142ym wzro\u015bcie obci\u0105\u017cenia. Jednak powy\u017cej pewnego punktu wariancja maleje wolniej, a spadek wsp\u00f3\u0142czynnik\u00f3w prowadzi do ich znacznego niedoszacowania, co prowadzi do gwa\u0142townego wzrostu obci\u0105\u017cenia systematycznego.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Z wykresu widzimy, \u017ce MSE testu jest najni\u017csze, gdy wybierzemy warto\u015b\u0107 \u03bb, kt\u00f3ra zapewnia optymalny kompromis mi\u0119dzy obci\u0105\u017ceniem a wariancj\u0105.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Gdy \u03bb = 0, sk\u0142adnik karny w regresji lasso nie ma \u017cadnego efektu i dlatego daje takie same oszacowania wsp\u00f3\u0142czynnik\u00f3w, jak metoda najmniejszych kwadrat\u00f3w. Jednak\u017ce, zwi\u0119kszaj\u0105c \u03bb do pewnego punktu, mo\u017cemy zmniejszy\u0107 ca\u0142kowite MSE testu.<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11874 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/lasso1.png\" alt=\"Kompromis odchylenia i wariancji metod\u0105 regresji Lasso\" width=\"490\" height=\"357\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">Oznacza to, \u017ce dopasowanie modelu metod\u0105 regresji lasso b\u0119dzie skutkowa\u0142o mniejszymi b\u0142\u0119dami testowymi ni\u017c dopasowanie modelu metod\u0105 najmniejszych kwadrat\u00f3w.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regresja Lasso a regresja Ridge&#8217;a<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Zar\u00f3wno regresja Lasso, jak i <a href=\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\" target=\"_blank\" rel=\"noopener noreferrer\">regresja Ridge&#8217;a<\/a> s\u0105 znane jako <em>metody regularyzacji<\/em> , poniewa\u017c obie maj\u0105 na celu zminimalizowanie resztowej sumy kwadrat\u00f3w (RSS), a tak\u017ce okre\u015blonego warunku kary.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Innymi s\u0142owy, ograniczaj\u0105 lub <em>reguluj\u0105<\/em> oszacowania wsp\u00f3\u0142czynnik\u00f3w modelu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednak stosowane przez nich warunki kar s\u0105 nieco inne:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Regresja Lasso pr\u00f3buje zminimalizowa\u0107 <strong>RSS + \u03bb\u03a3|\u03b2 <sub>j<\/sub> |<\/strong><\/span><\/li>\n<li> <span style=\"color: #000000;\">Regresja grzbietowa pr\u00f3buje zminimalizowa\u0107 <strong>RSS + \u03bb\u03a3\u03b2 <sub>j<\/sub> <sup>2<\/sup><\/strong><\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Kiedy u\u017cywamy regresji grzbietowej, wsp\u00f3\u0142czynniki ka\u017cdego predyktora s\u0105 redukowane do zera, ale \u017caden z nich nie mo\u017ce <em>ca\u0142kowicie spa\u015b\u0107 do zera<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">I odwrotnie, gdy zastosujemy regresj\u0119 lasso, mo\u017cliwe jest, \u017ce niekt\u00f3re wsp\u00f3\u0142czynniki stan\u0105 si\u0119 <em>ca\u0142kowicie zerowe<\/em> , gdy \u03bb stanie si\u0119 wystarczaj\u0105co du\u017ce.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Z technicznego punktu widzenia regresja lasso umo\u017cliwia tworzenie modeli \u201erzadkich\u201d, to znaczy modeli zawieraj\u0105cych tylko podzbi\u00f3r zmiennych predykcyjnych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nasuwa si\u0119 pytanie: <strong>czy lepsza jest regresja grzbietu czy regresja lasso?<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Odpowied\u017a: to zale\u017cy!<\/span><\/p>\n<p> <span style=\"color: #000000;\">W przypadkach, gdy istotna jest tylko niewielka liczba zmiennych predykcyjnych, regresja lasso zwykle dzia\u0142a lepiej, poniewa\u017c jest w stanie ca\u0142kowicie zredukowa\u0107 nieistotne zmienne do zera i usun\u0105\u0107 je z modelu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednak\u017ce, gdy w modelu znacz\u0105cych jest wiele zmiennych predykcyjnych, a ich wsp\u00f3\u0142czynniki s\u0105 w przybli\u017ceniu r\u00f3wne, regresja grzbietowa zwykle dzia\u0142a lepiej, poniewa\u017c utrzymuje wszystkie predyktory w modelu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aby okre\u015bli\u0107, kt\u00f3ry model jest najskuteczniejszy w przewidywaniu, przeprowadzamy <a href=\"https:\/\/statorials.org\/pl\/k-krotna-walidacja-krzyzowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-krotn\u0105 weryfikacj\u0119 krzy\u017cow\u0105<\/a> . Najlepszym modelem jest model, kt\u00f3ry generuje najni\u017cszy b\u0142\u0105d \u015bredniokwadratowy (MSE).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Etapy wykonywania regresji lasso w praktyce<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Aby przeprowadzi\u0107 regresj\u0119 lasso, mo\u017cna wykona\u0107 nast\u0119puj\u0105ce kroki:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 1: Oblicz macierz korelacji i warto\u015bci VIF dla zmiennych predykcyjnych.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Najpierw musimy stworzy\u0107 <a href=\"https:\/\/statorials.org\/pl\/jak-czytac-macierz-korelacji\/\" target=\"_blank\" rel=\"noopener noreferrer\">macierz korelacji<\/a> i obliczy\u0107 <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">warto\u015bci VIF (wsp\u00f3\u0142czynnik inflacji wariancji)<\/a> dla ka\u017cdej zmiennej predykcyjnej.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u015bli wykryjemy siln\u0105 korelacj\u0119 mi\u0119dzy zmiennymi predykcyjnymi a wysokimi warto\u015bciami VIF (niekt\u00f3re teksty definiuj\u0105 \u201ewysok\u0105\u201d warto\u015b\u0107 VIF na 5, podczas gdy inne u\u017cywaj\u0105 10), w\u00f3wczas prawdopodobnie w\u0142a\u015bciwa b\u0119dzie regresja lasso.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u015bli jednak w danych nie wyst\u0119puje wsp\u00f3\u0142liniowo\u015b\u0107, wykonywanie regresji lasso mo\u017ce nie by\u0107 konieczne. Zamiast tego mo\u017cemy wykona\u0107 zwyk\u0142\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 2: Dopasuj model regresji lasso i wybierz warto\u015b\u0107 \u03bb.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Kiedy ju\u017c ustalimy, \u017ce regresja lasso jest w\u0142a\u015bciwa, mo\u017cemy dopasowa\u0107 model (u\u017cywaj\u0105c popularnych j\u0119zyk\u00f3w programowania, takich jak R czy Python), stosuj\u0105c optymaln\u0105 warto\u015b\u0107 \u03bb.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Aby okre\u015bli\u0107 optymaln\u0105 warto\u015b\u0107 \u03bb, mo\u017cemy dopasowa\u0107 wiele modeli, stosuj\u0105c r\u00f3\u017cne warto\u015bci \u03bb i wybra\u0107 \u03bb jako warto\u015b\u0107, kt\u00f3ra daje najni\u017cszy test MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Krok 3: Por\u00f3wnaj regresj\u0119 lassa z regresj\u0105 grzbietow\u0105 i zwyk\u0142\u0105 regresj\u0105 metod\u0105 najmniejszych kwadrat\u00f3w.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Na koniec mo\u017cemy por\u00f3wna\u0107 nasz model regresji lasso z modelem regresji grzbietowej i modelem regresji metod\u0105 najmniejszych kwadrat\u00f3w, aby okre\u015bli\u0107, kt\u00f3ry model daje najni\u017cszy test MSE przy u\u017cyciu k-krotnej walidacji krzy\u017cowej.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W zale\u017cno\u015bci od relacji mi\u0119dzy zmiennymi predykcyjnymi a zmienn\u0105 odpowiedzi jest ca\u0142kowicie mo\u017cliwe, \u017ce jeden z tych trzech modeli b\u0119dzie lepszy od pozosta\u0142ych w r\u00f3\u017cnych scenariuszach.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regresja Lasso w R i Pythonie<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Poni\u017csze samouczki wyja\u015bniaj\u0105, jak przeprowadzi\u0107 regresj\u0119 lasso w R i Pythonie:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/pl\/regresja-lasso-w-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja Lasso w R (krok po kroku)<\/a><br \/> <a href=\"https:\/\/statorials.org\/pl\/regresja-lasso-w-pythonie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja Lasso w Pythonie (krok po kroku)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>W zwyk\u0142ej wielokrotnej regresji liniowej u\u017cywamy zestawu p zmiennych predykcyjnych i zmiennej odpowiedzi , aby dopasowa\u0107 model w postaci: Y = \u03b2 0 + \u03b2 1 X 1 + \u03b2 2 X 2 + \u2026 + \u03b2 p Z\u0142oto: Y : Zmienna odpowiedzi X j : j- ta zmienna predykcyjna \u03b2 j : \u015aredni wp\u0142yw [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1194","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Wprowadzenie do regresji Lasso - Statologia<\/title>\n<meta name=\"description\" content=\"Ten samouczek zawiera wprowadzenie do regresji lasso, w tym wyja\u015bnienia i przyk\u0142ady.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/regresja-lassa\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wprowadzenie do regresji Lasso - Statologia\" \/>\n<meta property=\"og:description\" content=\"Ten samouczek zawiera wprowadzenie do regresji lasso, w tym wyja\u015bnienia i przyk\u0142ady.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/regresja-lassa\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T08:09:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minut\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-lassa\/\",\"url\":\"https:\/\/statorials.org\/pl\/regresja-lassa\/\",\"name\":\"Wprowadzenie do regresji Lasso - Statologia\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T08:09:52+00:00\",\"dateModified\":\"2023-07-27T08:09:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"Ten samouczek zawiera wprowadzenie do regresji lasso, w tym wyja\u015bnienia i przyk\u0142ady.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/regresja-lassa\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/regresja-lassa\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-lassa\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wprowadzenie do regresji lasso\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wprowadzenie do regresji Lasso - Statologia","description":"Ten samouczek zawiera wprowadzenie do regresji lasso, w tym wyja\u015bnienia i przyk\u0142ady.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/regresja-lassa\/","og_locale":"pl_PL","og_type":"article","og_title":"Wprowadzenie do regresji Lasso - Statologia","og_description":"Ten samouczek zawiera wprowadzenie do regresji lasso, w tym wyja\u015bnienia i przyk\u0142ady.","og_url":"https:\/\/statorials.org\/pl\/regresja-lassa\/","og_site_name":"Statorials","article_published_time":"2023-07-27T08:09:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/crete1.png"}],"author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"5 minut"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/regresja-lassa\/","url":"https:\/\/statorials.org\/pl\/regresja-lassa\/","name":"Wprowadzenie do regresji Lasso - Statologia","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T08:09:52+00:00","dateModified":"2023-07-27T08:09:52+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"Ten samouczek zawiera wprowadzenie do regresji lasso, w tym wyja\u015bnienia i przyk\u0142ady.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/regresja-lassa\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/regresja-lassa\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/regresja-lassa\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Wprowadzenie do regresji lasso"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1194","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1194"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1194\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1194"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1194"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1194"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}