{"id":1199,"date":"2023-07-27T07:44:59","date_gmt":"2023-07-27T07:44:59","guid":{"rendered":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/"},"modified":"2023-07-27T07:44:59","modified_gmt":"2023-07-27T07:44:59","slug":"regresja-glownych-skladnikow","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/","title":{"rendered":"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Jednym z najcz\u0119stszych problem\u00f3w, jakie mo\u017cna napotka\u0107 podczas tworzenia modeli, jest <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wsp\u00f3\u0142liniowo\u015b\u0107<\/a> . Dzieje si\u0119 tak, gdy dwie lub wi\u0119cej zmiennych predykcyjnych w zbiorze danych jest silnie skorelowanych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Kiedy tak si\u0119 stanie, dany model mo\u017ce by\u0107 w stanie dobrze dopasowa\u0107 zestaw danych szkoleniowych, ale prawdopodobnie b\u0119dzie dzia\u0142a\u0142 s\u0142abo na nowym zestawie danych, kt\u00f3rego nigdy nie widzia\u0142, poniewa\u017c <a href=\"https:\/\/statorials.org\/pl\/nadmierne-dopasowanie-uczenia-maszynowego\/\" target=\"_blank\" rel=\"noopener noreferrer\">nadmiernie pasuje<\/a> do zbioru szkoleniowego.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednym ze sposob\u00f3w unikni\u0119cia nadmiernego dopasowania jest u\u017cycie metody <strong>wyboru podzbioru,<\/strong> takiej jak:<\/span><\/p>\n<ul>\n<li> <a href=\"https:\/\/statorials.org\/pl\/najlepszy-wybor-podzbiorow\/\" target=\"_blank\" rel=\"noopener noreferrer\">Najlepszy wyb\u00f3r podzbioru<\/a><\/li>\n<li> <a href=\"https:\/\/statorials.org\/pl\/selekcja-etapami\/\" target=\"_blank\" rel=\"noopener noreferrer\">Selekcja etapowa<\/a><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Metody te maj\u0105 na celu usuni\u0119cie nieistotnych predyktor\u00f3w z modelu, tak aby w ostatecznym modelu pozosta\u0142y tylko najwa\u017cniejsze predyktory zdolne do przewidzenia zmienno\u015bci zmiennej odpowiedzi.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Innym sposobem unikni\u0119cia nadmiernego dopasowania jest u\u017cycie pewnego rodzaju metody <strong>regularyzacji<\/strong> , takiej jak:<\/span><\/p>\n<ul>\n<li> <a href=\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja szczytowa<\/a><\/li>\n<li> <a href=\"https:\/\/statorials.org\/pl\/regresja-lassa\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja Lassa<\/a><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Metody te pr\u00f3buj\u0105 ograniczy\u0107 lub <em>uregulowa\u0107<\/em> wsp\u00f3\u0142czynniki modelu w celu zmniejszenia wariancji, a tym samym stworzy\u0107 modele zdolne do dobrego uog\u00f3lniania nowych danych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ca\u0142kowicie odmienne podej\u015bcie do wielowsp\u00f3\u0142liniowo\u015bci znane jest jako <strong>redukcja wymiarowa<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Powszechn\u0105 metod\u0105 redukcji wymiar\u00f3w jest znana jako <strong>regresja g\u0142\u00f3wnych sk\u0142adowych<\/strong> , kt\u00f3ra dzia\u0142a w nast\u0119puj\u0105cy spos\u00f3b:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong> Za\u0142\u00f3\u017cmy, <sub>\u017ce dany<\/sub> zbi\u00f3r danych zawiera <em>p<\/em> <sub>predyktor\u00f3w<\/sub> <sub>:<\/sub><\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Oblicz Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> jako <em>M<\/em> kombinacji liniowych pierwotnych predyktor\u00f3w <em>p<\/em> .<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Z<\/sub> <sub>m<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6jm<\/sub> <sub>_<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>1<\/sub> to liniowa kombinacja predyktor\u00f3w, kt\u00f3ra wychwytuje mo\u017cliwie najwi\u0119cej wariancji.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><sub>Z2<\/sub> jest nast\u0119pn\u0105 liniow\u0105 kombinacj\u0105 predyktor\u00f3w, kt\u00f3ra wychwytuje najwi\u0119cej wariancji, b\u0119d\u0105c <em>ortogonaln\u0105<\/em> (tzn. nieskorelowan\u0105) z <sub>Z1<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Z <sub>3<\/sub> jest zatem nast\u0119pn\u0105 liniow\u0105 kombinacj\u0105 predyktor\u00f3w, kt\u00f3ra wychwytuje najwi\u0119cej wariancji, b\u0119d\u0105c ortogonaln\u0105 do Z <sub>2<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">I tak dalej.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Zastosuj metod\u0119 najmniejszych kwadrat\u00f3w, aby dopasowa\u0107 model regresji liniowej, u\u017cywaj\u0105c pierwszych <em>M<\/em> sk\u0142adowych g\u0142\u00f3wnych Z <sub>1<\/sub> , \u2026, Z <sub>M<\/sub> jako predyktor\u00f3w.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Termin <strong>redukcja wymiaru<\/strong> wynika z faktu, \u017ce metoda ta musi jedynie szacowa\u0107 wsp\u00f3\u0142czynniki M+1 zamiast wsp\u00f3\u0142czynnik\u00f3w p+1, gdzie M &lt; p.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Innymi s\u0142owy, <em>wymiar<\/em> problemu zosta\u0142 zmniejszony z p+1 do M+1.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W wielu przypadkach, gdy w zbiorze danych wyst\u0119puje wsp\u00f3\u0142liniowo\u015b\u0107, regresja g\u0142\u00f3wnych sk\u0142adowych umo\u017cliwia utworzenie modelu, kt\u00f3ry pozwala na uog\u00f3lnianie na nowe dane lepiej ni\u017c konwencjonalna <a href=\"https:\/\/statorials.org\/pl\/wielokrotna-regresja-liniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">regresja liniowa wielokrotna<\/a> .<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Kroki wykonywania regresji g\u0142\u00f3wnych komponent\u00f3w<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">W praktyce do przeprowadzenia regresji g\u0142\u00f3wnych sk\u0142adowych stosuje si\u0119 nast\u0119puj\u0105ce kroki:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Standaryzuj predyktory.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Po pierwsze, zazwyczaj standaryzujemy dane w taki spos\u00f3b, \u017ce ka\u017cda zmienna predykcyjna ma \u015bredni\u0105 warto\u015b\u0107 0 i odchylenie standardowe 1. Zapobiega to wywieraniu przez jeden predyktor zbyt du\u017cego wp\u0142ywu, zw\u0142aszcza je\u015bli jest mierzony w r\u00f3\u017cnych jednostkach (c, to znaczy, je\u015bli <sub>1<\/sub> mierzy si\u0119 w calach). a <sub>X2<\/sub> mierzy si\u0119 w jardach).<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Oblicz g\u0142\u00f3wne sk\u0142adowe i wykonaj regresj\u0119 liniow\u0105, wykorzystuj\u0105c g\u0142\u00f3wne sk\u0142adowe jako predyktory.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie obliczamy g\u0142\u00f3wne sk\u0142adowe i stosujemy metod\u0119 najmniejszych kwadrat\u00f3w, aby dopasowa\u0107 model regresji liniowej, wykorzystuj\u0105c pierwsze <em>M<\/em> sk\u0142adowe g\u0142\u00f3wne Z <sub>1<\/sub> , \u2026, Z <sub>M<\/sub> jako predyktory.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Zdecyduj, ile g\u0142\u00f3wnych komponent\u00f3w zachowa\u0107.<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie u\u017cywamy <a href=\"https:\/\/statorials.org\/pl\/k-krotna-walidacja-krzyzowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-krotnej walidacji krzy\u017cowej<\/a> , aby znale\u017a\u0107 optymaln\u0105 liczb\u0119 g\u0142\u00f3wnych sk\u0142adnik\u00f3w, kt\u00f3re nale\u017cy zachowa\u0107 w modelu. \u201eOptymalna\u201d liczba g\u0142\u00f3wnych sk\u0142adnik\u00f3w, kt\u00f3r\u0105 nale\u017cy zachowa\u0107, to zazwyczaj liczba, kt\u00f3ra daje najni\u017cszy b\u0142\u0105d \u015bredniokwadratowy (MSE) testu.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Zalety i wady regresji g\u0142\u00f3wnych sk\u0142adowych<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Regresja g\u0142\u00f3wnych sk\u0142adowych (PCR) ma nast\u0119puj\u0105ce <strong>zalety<\/strong> :<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">PCR zwykle dzia\u0142a dobrze, gdy pierwsze g\u0142\u00f3wne sk\u0142adniki s\u0105 w stanie uchwyci\u0107 wi\u0119kszo\u015b\u0107 zmienno\u015bci predyktor\u00f3w, a tak\u017ce zwi\u0105zek ze zmienn\u0105 odpowiedzi.<\/span><\/li>\n<li> <span style=\"color: #000000;\">PCR mo\u017ce dzia\u0142a\u0107 dobrze nawet wtedy, gdy zmienne predykcyjne s\u0105 silnie skorelowane, poniewa\u017c wytwarza g\u0142\u00f3wne sk\u0142adniki, kt\u00f3re s\u0105 wzgl\u0119dem siebie ortogonalne (tj. nieskorelowane).<\/span><\/li>\n<li> <span style=\"color: #000000;\">PCR nie wymaga wyboru, kt\u00f3re zmienne predykcyjne nale\u017cy usun\u0105\u0107 z modelu, poniewa\u017c ka\u017cdy g\u0142\u00f3wny sk\u0142adnik wykorzystuje liniow\u0105 kombinacj\u0119 wszystkich zmiennych predykcyjnych.<\/span><\/li>\n<li> <span style=\"color: #000000;\">W przeciwie\u0144stwie do wielokrotnej regresji liniowej, PCR mo\u017cna zastosowa\u0107, gdy istnieje wi\u0119cej zmiennych predykcyjnych ni\u017c obserwacji.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Jednak PCR ma <strong>wad\u0119:<\/strong><\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">PCR nie bierze pod uwag\u0119 zmiennej odpowiedzi przy podejmowaniu decyzji, kt\u00f3re g\u0142\u00f3wne sk\u0142adniki zachowa\u0107, a kt\u00f3re usun\u0105\u0107. Zamiast tego uwzgl\u0119dnia jedynie wielko\u015b\u0107 wariancji pomi\u0119dzy zmiennymi predykcyjnymi wychwyconymi przez g\u0142\u00f3wne sk\u0142adowe. Mo\u017cliwe jest, \u017ce w niekt\u00f3rych przypadkach g\u0142\u00f3wne sk\u0142adniki o najwi\u0119kszych r\u00f3\u017cnicach mog\u0105 nie by\u0107 w stanie dobrze przewidzie\u0107 zmiennej odpowiedzi.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">W praktyce dopasowujemy wiele r\u00f3\u017cnych typ\u00f3w modeli (PCR, Ridge, Lasso, wielokrotna regresja liniowa itp.) i stosujemy k-krotn\u0105 walidacj\u0119 krzy\u017cow\u0105 w celu zidentyfikowania modelu, kt\u00f3ry daje najni\u017cszy test MSE na nowych danych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W przypadkach, gdy w oryginalnym zestawie danych wyst\u0119puje wieloliniowo\u015b\u0107 (co cz\u0119sto ma miejsce), PCR zwykle dzia\u0142a lepiej ni\u017c zwyk\u0142a regresja metod\u0105 najmniejszych kwadrat\u00f3w. Dobrym pomys\u0142em jest jednak dopasowanie kilku r\u00f3\u017cnych modeli, aby mo\u017cna by\u0142o okre\u015bli\u0107, kt\u00f3ry z nich najlepiej uog\u00f3lnia niewidoczne dane.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Regresja g\u0142\u00f3wnych komponent\u00f3w w R i Pythonie<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Poni\u017csze samouczki pokazuj\u0105, jak przeprowadzi\u0107 regresj\u0119 g\u0142\u00f3wnych sk\u0142adnik\u00f3w w R i Pythonie:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/pl\/regresja-g\u0142ownych-sk\u0142adnikow-w-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja g\u0142\u00f3wnych sk\u0142adowych w R (krok po kroku)<\/a><br \/> <a href=\"https:\/\/statorials.org\/pl\/regresja-g\u0142ownych-sk\u0142adnikow-w-pythonie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Regresja g\u0142\u00f3wnych komponent\u00f3w w Pythonie (krok po kroku)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jednym z najcz\u0119stszych problem\u00f3w, jakie mo\u017cna napotka\u0107 podczas tworzenia modeli, jest wsp\u00f3\u0142liniowo\u015b\u0107 . Dzieje si\u0119 tak, gdy dwie lub wi\u0119cej zmiennych predykcyjnych w zbiorze danych jest silnie skorelowanych. Kiedy tak si\u0119 stanie, dany model mo\u017ce by\u0107 w stanie dobrze dopasowa\u0107 zestaw danych szkoleniowych, ale prawdopodobnie b\u0119dzie dzia\u0142a\u0142 s\u0142abo na nowym zestawie danych, kt\u00f3rego nigdy nie [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1199","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych<\/title>\n<meta name=\"description\" content=\"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adnik\u00f3w, typowej techniki stosowanej w uczeniu maszynowym.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych\" \/>\n<meta property=\"og:description\" content=\"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adnik\u00f3w, typowej techniki stosowanej w uczeniu maszynowym.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:44:59+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minuty\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/\",\"url\":\"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/\",\"name\":\"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T07:44:59+00:00\",\"dateModified\":\"2023-07-27T07:44:59+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adnik\u00f3w, typowej techniki stosowanej w uczeniu maszynowym.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych","description":"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adnik\u00f3w, typowej techniki stosowanej w uczeniu maszynowym.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/","og_locale":"pl_PL","og_type":"article","og_title":"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych","og_description":"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adnik\u00f3w, typowej techniki stosowanej w uczeniu maszynowym.","og_url":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:44:59+00:00","author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"4 minuty"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/","url":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/","name":"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T07:44:59+00:00","dateModified":"2023-07-27T07:44:59+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"Ten samouczek zawiera kr\u00f3tkie wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adnik\u00f3w, typowej techniki stosowanej w uczeniu maszynowym.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/regresja-glownych-skladnikow\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Wprowadzenie do regresji g\u0142\u00f3wnych sk\u0142adowych"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1199","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1199"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1199\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1199"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1199"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1199"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}