{"id":1207,"date":"2023-07-27T07:03:03","date_gmt":"2023-07-27T07:03:03","guid":{"rendered":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/"},"modified":"2023-07-27T07:03:03","modified_gmt":"2023-07-27T07:03:03","slug":"czesciowe-metody-najmniejszych-kwadratow","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/","title":{"rendered":"Wprowadzenie do cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Jednym z najcz\u0119stszych problem\u00f3w, jakie mo\u017cna napotka\u0107 w uczeniu maszynowym, jest <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wieloliniowo\u015b\u0107<\/a> . Dzieje si\u0119 tak, gdy dwie lub wi\u0119cej zmiennych predykcyjnych w zbiorze danych jest silnie skorelowanych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Kiedy tak si\u0119 stanie, model mo\u017ce by\u0107 w stanie dobrze dopasowa\u0107 zbi\u00f3r danych ucz\u0105cych, ale mo\u017ce dzia\u0142a\u0107 s\u0142abo na nowym zbiorze danych, kt\u00f3rego nigdy nie widzia\u0142, poniewa\u017c <a href=\"https:\/\/statorials.org\/pl\/nadmierne-dopasowanie-uczenia-maszynowego\/\" target=\"_blank\" rel=\"noopener noreferrer\">nadmiernie pasuje do<\/a> zbioru danych ucz\u0105cych. zestaw treningowy.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednym ze sposob\u00f3w obej\u015bcia problemu wielowsp\u00f3\u0142liniowo\u015bci jest zastosowanie <a href=\"https:\/\/statorials.org\/pl\/regresja-g\u0142ownych-sk\u0142adnikow\/\" target=\"_blank\" rel=\"noopener noreferrer\">regresji g\u0142\u00f3wnych sk\u0142adowych<\/a> , kt\u00f3ra oblicza <em>M<\/em> kombinacji liniowych (zwanych \u201esk\u0142adnikami g\u0142\u00f3wnymi\u201d) oryginalnych zmiennych predykcyjnych <em>p<\/em> , a nast\u0119pnie wykorzystuje metod\u0119 najmniejszych kwadrat\u00f3w w celu dopasowania modelu regresji liniowej przy u\u017cyciu zasady komponenty jako predyktory.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wad\u0105 regresji g\u0142\u00f3wnych sk\u0142adowych (PCR) jest to, \u017ce nie bierze ona pod uwag\u0119 <a href=\"https:\/\/statorials.org\/pl\/zmienne-odpowiedzi-wyjasniajace\/\" target=\"_blank\" rel=\"noopener noreferrer\">zmiennej odpowiedzi<\/a> przy obliczaniu g\u0142\u00f3wnych sk\u0142adowych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Zamiast tego uwzgl\u0119dnia jedynie wielko\u015b\u0107 wariancji pomi\u0119dzy zmiennymi predykcyjnymi wychwyconymi przez g\u0142\u00f3wne sk\u0142adowe. Z tego powodu mo\u017cliwe jest, \u017ce w niekt\u00f3rych przypadkach g\u0142\u00f3wne sk\u0142adniki o najwi\u0119kszych odchyleniach mog\u0105 nie by\u0107 w stanie dobrze przewidzie\u0107 zmiennej odpowiedzi.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Technika zwi\u0105zana z PCR znana jest jako <strong>metoda cz\u0105stkowych najmniejszych kwadrat\u00f3w<\/strong> . Podobnie do PCR, metoda cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w oblicza <em>M<\/em> kombinacji liniowych (zwanych \u201esk\u0142adnikami PLS\u201d) oryginalnych zmiennych predykcyjnych <em>p<\/em> i wykorzystuje metod\u0119 najmniejszych kwadrat\u00f3w w celu dopasowania modelu regresji liniowej wykorzystuj\u0105cej komponenty PLS jako predyktory.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednak w przeciwie\u0144stwie do PCR, metoda cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w pr\u00f3buje znale\u017a\u0107 kombinacje liniowe, kt\u00f3re wyja\u015bniaj\u0105 zmienno\u015b\u0107 <em>zar\u00f3wno<\/em> zmiennej odpowiedzi, jak i zmiennych predykcyjnych.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Kroki wykonywania cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">W praktyce do wykonania cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w stosuje si\u0119 nast\u0119puj\u0105ce kroki.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1.<\/strong><\/span> <span style=\"color: #000000;\">Standaryzuj dane w taki spos\u00f3b, aby wszystkie zmienne predykcyjne i zmienna odpowiedzi mia\u0142y \u015bredni\u0105 0 i odchylenie standardowe 1. Dzi\u0119ki temu ka\u017cda zmienna jest mierzona na tej samej skali.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2.<\/strong> Oblicz Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> jako <em>M<\/em> kombinacji liniowych pierwotnych predyktor\u00f3w <em>p<\/em> .<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><sub>Z<\/sub> <sub>m<\/sub> <sub>=<\/sub> <sub>\u03a3\u03a6jm<\/sub> <sub>_<\/sub> <sub>_<\/sub><\/span><\/li>\n<li> <span style=\"color: #000000;\">Aby obliczy\u0107 Z <sub>1<\/sub> , przyjmij \u03a6 <sub>j1<\/sub> r\u00f3wne wsp\u00f3\u0142czynnikowi prostej regresji liniowej Y na X <sub>j<\/sub> jest liniow\u0105 kombinacj\u0105 predyktor\u00f3w, kt\u00f3ra wychwytuje mo\u017cliwie najwi\u0119cej wariancji.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Aby obliczy\u0107 Z <sub>2<\/sub> , dokonaj regresji ka\u017cdej zmiennej na Z <sub>1<\/sub> i we\u017a reszty. Nast\u0119pnie oblicz Z <sub>2<\/sub> , korzystaj\u0105c z tych ortogonalnych danych, dok\u0142adnie w taki sam spos\u00f3b, w jaki obliczono Z <sub>1<\/sub> .<\/span><\/li>\n<li> <span style=\"color: #000000;\">Powt\u00f3rz ten proces <em>M<\/em> razy, aby uzyska\u0107 <em>M<\/em> komponent\u00f3w PLS.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\"><strong>3.<\/strong> Zastosuj metod\u0119 najmniejszych kwadrat\u00f3w, aby dopasowa\u0107 model regresji liniowej, wykorzystuj\u0105c komponenty PLS Z <sub>1<\/sub> , \u2026 , Z <sub>M<\/sub> jako predyktory.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>4.<\/strong> Na koniec<\/span> <span style=\"color: #000000;\">u\u017cyj <a href=\"https:\/\/statorials.org\/pl\/k-krotna-walidacja-krzyzowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-krotnej walidacji krzy\u017cowej<\/a> , aby znale\u017a\u0107 optymaln\u0105 liczb\u0119 komponent\u00f3w PLS do utrzymania w modelu. \u201eOptymalna\u201d liczba komponent\u00f3w PLS, kt\u00f3r\u0105 nale\u017cy zachowa\u0107, to zazwyczaj liczba, kt\u00f3ra generuje najni\u017cszy testowy b\u0142\u0105d \u015bredniokwadratowy (MSE).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Wniosek<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">W przypadkach, gdy w zbiorze danych wyst\u0119puje wieloliniowo\u015b\u0107, regresja cz\u0105stkowa metod\u0105 najmniejszych kwadrat\u00f3w zwykle dzia\u0142a lepiej ni\u017c zwyk\u0142a regresja metod\u0105 najmniejszych kwadrat\u00f3w. Dobrym pomys\u0142em jest jednak dopasowanie kilku r\u00f3\u017cnych modeli, aby mo\u017cna by\u0142o okre\u015bli\u0107, kt\u00f3ry z nich najlepiej uog\u00f3lnia niewidoczne dane.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W praktyce dopasowujemy wiele r\u00f3\u017cnych typ\u00f3w modeli (PLS, <a href=\"https:\/\/statorials.org\/pl\/regresja-g\u0142ownych-sk\u0142adnikow\/\" target=\"_blank\" rel=\"noopener noreferrer\">PCR<\/a> , <a href=\"https:\/\/statorials.org\/pl\/regresja-grzbietu\/\" target=\"_blank\" rel=\"noopener noreferrer\">Ridge<\/a> , <a href=\"https:\/\/statorials.org\/pl\/regresja-lassa\/\" target=\"_blank\" rel=\"noopener noreferrer\">Lasso<\/a> , <a href=\"https:\/\/statorials.org\/pl\/wielokrotna-regresja-liniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wielokrotna regresja liniowa<\/a> itp.) do zbioru danych i stosujemy k-krotn\u0105 walidacj\u0119 krzy\u017cow\u0105, aby zidentyfikowa\u0107 model, kt\u00f3ry najlepiej generuje test MSE. ni\u017csze w przypadku nowych danych. .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jednym z najcz\u0119stszych problem\u00f3w, jakie mo\u017cna napotka\u0107 w uczeniu maszynowym, jest wieloliniowo\u015b\u0107 . Dzieje si\u0119 tak, gdy dwie lub wi\u0119cej zmiennych predykcyjnych w zbiorze danych jest silnie skorelowanych. Kiedy tak si\u0119 stanie, model mo\u017ce by\u0107 w stanie dobrze dopasowa\u0107 zbi\u00f3r danych ucz\u0105cych, ale mo\u017ce dzia\u0142a\u0107 s\u0142abo na nowym zbiorze danych, kt\u00f3rego nigdy nie widzia\u0142, poniewa\u017c [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1207","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Wprowadzenie do cz\u0105stkowych najmniejszych kwadrat\u00f3w - Statologia<\/title>\n<meta name=\"description\" content=\"Ten samouczek zawiera wprowadzenie do metody cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w, popularnej techniki redukcji wymiar\u00f3w stosowanej w uczeniu maszynowym.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wprowadzenie do cz\u0105stkowych najmniejszych kwadrat\u00f3w - Statologia\" \/>\n<meta property=\"og:description\" content=\"Ten samouczek zawiera wprowadzenie do metody cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w, popularnej techniki redukcji wymiar\u00f3w stosowanej w uczeniu maszynowym.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T07:03:03+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuty\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/\",\"url\":\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/\",\"name\":\"Wprowadzenie do cz\u0105stkowych najmniejszych kwadrat\u00f3w - Statologia\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T07:03:03+00:00\",\"dateModified\":\"2023-07-27T07:03:03+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"Ten samouczek zawiera wprowadzenie do metody cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w, popularnej techniki redukcji wymiar\u00f3w stosowanej w uczeniu maszynowym.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wprowadzenie do cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wprowadzenie do cz\u0105stkowych najmniejszych kwadrat\u00f3w - Statologia","description":"Ten samouczek zawiera wprowadzenie do metody cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w, popularnej techniki redukcji wymiar\u00f3w stosowanej w uczeniu maszynowym.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/","og_locale":"pl_PL","og_type":"article","og_title":"Wprowadzenie do cz\u0105stkowych najmniejszych kwadrat\u00f3w - Statologia","og_description":"Ten samouczek zawiera wprowadzenie do metody cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w, popularnej techniki redukcji wymiar\u00f3w stosowanej w uczeniu maszynowym.","og_url":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/","og_site_name":"Statorials","article_published_time":"2023-07-27T07:03:03+00:00","author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"3 minuty"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/","url":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/","name":"Wprowadzenie do cz\u0105stkowych najmniejszych kwadrat\u00f3w - Statologia","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T07:03:03+00:00","dateModified":"2023-07-27T07:03:03+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"Ten samouczek zawiera wprowadzenie do metody cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w, popularnej techniki redukcji wymiar\u00f3w stosowanej w uczeniu maszynowym.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Wprowadzenie do cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1207","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1207"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1207\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1207"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1207"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1207"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}