{"id":1209,"date":"2023-07-27T06:54:42","date_gmt":"2023-07-27T06:54:42","guid":{"rendered":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/"},"modified":"2023-07-27T06:54:42","modified_gmt":"2023-07-27T06:54:42","slug":"najmniej-czesciowe-krawedzie-w-pythonie","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/","title":{"rendered":"Cz\u0119\u015bciowe najmniejsze kwadraty w pythonie (krok po kroku)"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Jednym z najcz\u0119stszych problem\u00f3w, jakie mo\u017cna napotka\u0107 w uczeniu maszynowym, jest <a href=\"https:\/\/statorials.org\/pl\/regresja-wieloliniowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">wieloliniowo\u015b\u0107<\/a> . Dzieje si\u0119 tak, gdy dwie lub wi\u0119cej zmiennych predykcyjnych w zbiorze danych jest silnie skorelowanych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Kiedy tak si\u0119 stanie, model mo\u017ce by\u0107 w stanie dobrze dopasowa\u0107 zbi\u00f3r danych ucz\u0105cych, ale mo\u017ce dzia\u0142a\u0107 s\u0142abo na nowym zbiorze danych, kt\u00f3rego nigdy nie widzia\u0142, poniewa\u017c <a href=\"https:\/\/statorials.org\/pl\/nadmierne-dopasowanie-uczenia-maszynowego\/\" target=\"_blank\" rel=\"noopener noreferrer\">nadmiernie pasuje do<\/a> zbioru danych ucz\u0105cych. zestaw treningowy.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednym ze sposob\u00f3w obej\u015bcia tego problemu jest zastosowanie metody zwanej <a href=\"https:\/\/statorials.org\/pl\/czesciowe-metody-najmniejszych-kwadratow\/\" target=\"_blank\" rel=\"noopener noreferrer\">cz\u0105stkowymi najmniejszymi kwadratami<\/a> , kt\u00f3ra dzia\u0142a w nast\u0119puj\u0105cy spos\u00f3b:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">Standaryzacja zmiennych predykcyjnych i odpowiedzi.<\/span><\/li>\n<li> <span style=\"color: #000000;\">Oblicz <em>M<\/em> kombinacji liniowych (zwanych \u201esk\u0142adnikami PLS\u201d) p<\/span> <em style=\"color: #000000;\">oryginalnych<\/em> <span style=\"color: #000000;\">zmiennych predykcyjnych, kt\u00f3re wyja\u015bniaj\u0105 znaczn\u0105 ilo\u015b\u0107 zmian zar\u00f3wno w zmiennej odpowiedzi, jak i zmiennych predykcyjnych.<\/span><\/li>\n<li> <span style=\"color: #000000;\">U\u017cyj metody najmniejszych kwadrat\u00f3w, aby dopasowa\u0107 model regresji liniowej, u\u017cywaj\u0105c komponent\u00f3w PLS jako predyktor\u00f3w.<\/span><\/li>\n<li> <span style=\"color: #000000;\">U\u017cyj <a href=\"https:\/\/statorials.org\/pl\/k-krotna-walidacja-krzyzowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-krotnej walidacji krzy\u017cowej<\/a> , aby znale\u017a\u0107 optymaln\u0105 liczb\u0119 komponent\u00f3w PLS do utrzymania w modelu.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Ten samouczek zawiera przyk\u0142ad krok po kroku wykonywania cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w w Pythonie.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Krok 1: Zaimportuj niezb\u0119dne pakiety<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Najpierw zaimportujemy pakiety potrzebne do wykonania cz\u0119\u015bciowej metody najmniejszych kwadrat\u00f3w w Pythonie:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008000;\">import<\/span> numpy <span style=\"color: #008000;\">as<\/span> np\n<span style=\"color: #008000;\">import<\/span> pandas <span style=\"color: #008000;\">as<\/span> pd\n<span style=\"color: #008000;\">import<\/span> matplotlib. <span style=\"color: #3366ff;\">pyplot<\/span> <span style=\"color: #008000;\">as<\/span> plt\n<span style=\"color: #008000;\">from<\/span> sklearn. <span style=\"color: #3366ff;\">preprocessing<\/span> <span style=\"color: #008000;\">import<\/span> scale \n<span style=\"color: #008000;\">from<\/span> sklearn <span style=\"color: #008000;\">import<\/span> model_selection\n<span style=\"color: #008000;\">from<\/span> sklearn. <span style=\"color: #3366ff;\">model_selection<\/span> <span style=\"color: #008000;\">import<\/span> RepeatedKFold\n<span style=\"color: #008000;\">from<\/span> sklearn. <span style=\"color: #3366ff;\">model_selection<\/span> <span style=\"color: #008000;\">import<\/span> train_test_split\n<span style=\"color: #008000;\">from <span style=\"color: #000000;\">sklearn. <span style=\"color: #3366ff;\">cross_decomposition<\/span> <span style=\"color: #008000;\">import<\/span> PLSRegression<\/span>\n<span style=\"color: #008000;\">from<\/span> <span style=\"color: #000000;\">sklearn<\/span> . <span style=\"color: #3366ff;\">metrics<\/span> <span style=\"color: #008000;\">import<\/span> <span style=\"color: #000000;\">mean_squared_error\n<\/span><\/span><\/strong><\/span><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Krok 2: Za\u0142aduj dane<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">W tym przyk\u0142adzie u\u017cyjemy zbioru danych o nazwie <strong>mtcars<\/strong> , kt\u00f3ry zawiera informacje o 33 r\u00f3\u017cnych samochodach. U\u017cyjemy <strong>hp<\/strong> jako zmiennej odpowiedzi i nast\u0119puj\u0105cych zmiennych jako predyktor\u00f3w:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\">mpg<\/span><\/li>\n<li> <span style=\"color: #000000;\">wy\u015bwietlacz<\/span><\/li>\n<li> <span style=\"color: #000000;\">g\u00f3wno<\/span><\/li>\n<li> <span style=\"color: #000000;\">waga<\/span><\/li>\n<li> <span style=\"color: #000000;\">sek<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Poni\u017cszy kod pokazuje, jak za\u0142adowa\u0107 i wy\u015bwietli\u0107 ten zestaw danych:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#define URL where data is located\n<\/span>url = \"https:\/\/raw.githubusercontent.com\/Statorials\/Python-Guides\/main\/mtcars.csv\"\n\n<span style=\"color: #008080;\">#read in data\n<\/span>data_full = pd. <span style=\"color: #3366ff;\">read_csv<\/span> (url)\n\n<span style=\"color: #008080;\">#select subset of data\n<\/span>data = data_full[[\"mpg\", \"disp\", \"drat\", \"wt\", \"qsec\", \"hp\"]]\n\n<span style=\"color: #008080;\">#view first six rows of data\n<\/span>data[0:6]\n\n\n        mpg disp drat wt qsec hp\n0 21.0 160.0 3.90 2.620 16.46 110\n1 21.0 160.0 3.90 2.875 17.02 110\n2 22.8 108.0 3.85 2.320 18.61 93\n3 21.4 258.0 3.08 3.215 19.44 110\n4 18.7 360.0 3.15 3.440 17.02 175\n5 18.1 225.0 2.76 3.460 20.22 105<\/strong><\/span><\/pre>\n<h3> <strong>Krok 3: Dopasuj model cz\u0119\u015bciowych najmniejszych kwadrat\u00f3w<\/strong><\/h3>\n<p> <span style=\"color: #000000;\">Poni\u017cszy kod pokazuje, jak dopasowa\u0107 model PLS do tych danych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Zauwa\u017c, \u017ce<\/span> <span style=\"color: #000000;\"><strong>cv = RepeatedKFold()<\/strong> m\u00f3wi Pythonowi, aby u\u017cy\u0142 <a href=\"https:\/\/statorials.org\/pl\/k-krotna-walidacja-krzyzowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">k-krotnej walidacji krzy\u017cowej<\/a> do oceny wydajno\u015bci modelu. W tym przyk\u0142adzie wybieramy k = 10 fa\u0142d, powt\u00f3rzonych 3 razy.<\/span> <\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#define predictor and response variables\n<\/span>X = data[[\"mpg\", \"disp\", \"drat\", \"wt\", \"qsec\"]]\ny = data[[\"hp\"]]\n\n<span style=\"color: #008080;\">#define cross-validation method\n<span style=\"color: #000000;\">cv = RepeatedKFold(n_splits= <span style=\"color: #008000;\">10<\/span> , n_repeats= <span style=\"color: #008000;\">3<\/span> , random_state= <span style=\"color: #008000;\">1<\/span> )\n\nmse = []\nn = <span style=\"color: #3366ff;\">len<\/span> (X)<\/span>\n\n# Calculate MSE with only the intercept\n<span style=\"color: #000000;\">score = -1*model_selection. <span style=\"color: #3366ff;\">cross_val_score<\/span> (PLSRegression(n_components=1),<\/span>\n<span style=\"color: #000000;\">n.p. <span style=\"color: #3366ff;\">ones<\/span> ((n,1)), y, cv=cv, scoring=' <span style=\"color: #008000;\">neg_mean_squared_error<\/span> '). <span style=\"color: #3366ff;\">mean<\/span> ()    \nmse. <span style=\"color: #3366ff;\">append<\/span> (score)<\/span>\n\n# Calculate MSE using cross-validation, adding one component at a time\n<span style=\"color: #000000;\"><span style=\"color: #008000;\">for<\/span> i <span style=\"color: #008000;\">in<\/span> np. <span style=\"color: #3366ff;\">arange<\/span> (1, 6):\n    pls = PLSRegression(n_components=i)\n    score = -1*model_selection. <span style=\"color: #3366ff;\">cross_val_score<\/span> (pls, scale(X), y, cv=cv,\n               scoring=' <span style=\"color: #008000;\">neg_mean_squared_error<\/span> '). <span style=\"color: #3366ff;\">mean<\/span> ()\n    mse. <span style=\"color: #3366ff;\">append<\/span> (score)<\/span>\n\n#plot test MSE vs. number of components\n<span style=\"color: #000000;\">plt. <span style=\"color: #3366ff;\">plot<\/span> (mse)\nplt. <span style=\"color: #3366ff;\">xlabel<\/span> (' <span style=\"color: #008000;\">Number of PLS Components<\/span> ')\nplt. <span style=\"color: #3366ff;\">ylabel<\/span> (' <span style=\"color: #008000;\">MSE<\/span> ')\nplt. <span style=\"color: #3366ff;\">title<\/span> (' <span style=\"color: #008000;\">hp<\/span> ')<\/span>\n<\/span><\/strong><\/span><\/pre>\n<h3><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11985 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/svppython1.png\" alt=\"Cz\u0119\u015bciowe najmniejsze kwadraty na wykresie sprawdzania krzy\u017cowego Pythona\" width=\"405\" height=\"284\" srcset=\"\" sizes=\"auto, \"><\/h3>\n<p> <span style=\"color: #000000;\">Wykres przedstawia liczb\u0119 komponent\u00f3w PLS wzd\u0142u\u017c osi x oraz test MSE (\u015bredni b\u0142\u0105d kwadratowy) wzd\u0142u\u017c osi y.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Z wykresu widzimy, \u017ce MSE testu zmniejsza si\u0119 po dodaniu dw\u00f3ch sk\u0142adnik\u00f3w PLS, ale zaczyna rosn\u0105\u0107 po dodaniu wi\u0119cej ni\u017c dw\u00f3ch sk\u0142adnik\u00f3w PLS.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Zatem optymalny model obejmuje tylko dwa pierwsze elementy PLS.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Krok 4: U\u017cyj ostatecznego modelu do przewidywania<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Mo\u017cemy wykorzysta\u0107 ostateczny model PLS z dwoma komponentami PLS do przewidywania nowych obserwacji.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Poni\u017cszy kod pokazuje, jak podzieli\u0107 oryginalny zbi\u00f3r danych na zbi\u00f3r ucz\u0105cy i testowy oraz u\u017cy\u0107 modelu PLS z dwoma komponentami PLS do przewidywania zbioru testowego.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#split the dataset into training (70%) and testing (30%) sets\n<\/span><span style=\"color: #3366ff;\">X_train<\/span> <span style=\"color: #008000;\">,<\/span> <span style=\"color: #008000;\">_<\/span><span style=\"color: #008080;\">\n\n#calculate RMSE\n<span style=\"color: #000000;\">pls = PLSRegression(n_components=2)\npls. <span style=\"color: #3366ff;\">fit<\/span> (scale(X_train), y_train)<\/span>\n\n<span style=\"color: #000000;\">n.p. <span style=\"color: #3366ff;\">sqrt<\/span> (mean_squared_error(y_test, pls. <span style=\"color: #3366ff;\">predict<\/span> (scale(X_test))))\n<\/span>\n<span style=\"color: #000000;\">29.9094\n<\/span><\/span><\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">Widzimy, \u017ce RMSE testu wynosi <strong>29,9094<\/strong> . Jest to \u015brednie odchylenie pomi\u0119dzy przewidywan\u0105 warto\u015bci\u0105 <em>KM<\/em> a obserwowan\u0105 warto\u015bci\u0105 <em>KM<\/em> dla obserwacji zestawu testowego.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Pe\u0142ny kod Pythona u\u017cyty w tym przyk\u0142adzie mo\u017cna znale\u017a\u0107 <a href=\"https:\/\/github.com\/Statorials\/Python-Guides\/blob\/main\/partial_least_squares.py\" target=\"_blank\" rel=\"noopener noreferrer\">tutaj<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jednym z najcz\u0119stszych problem\u00f3w, jakie mo\u017cna napotka\u0107 w uczeniu maszynowym, jest wieloliniowo\u015b\u0107 . Dzieje si\u0119 tak, gdy dwie lub wi\u0119cej zmiennych predykcyjnych w zbiorze danych jest silnie skorelowanych. Kiedy tak si\u0119 stanie, model mo\u017ce by\u0107 w stanie dobrze dopasowa\u0107 zbi\u00f3r danych ucz\u0105cych, ale mo\u017ce dzia\u0142a\u0107 s\u0142abo na nowym zbiorze danych, kt\u00f3rego nigdy nie widzia\u0142, poniewa\u017c [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1209","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Cz\u0119\u015bciowe najmniejsze kwadraty w Pythonie (krok po kroku) - Statologia<\/title>\n<meta name=\"description\" content=\"W tym samouczku wyja\u015bniono, jak wykona\u0107 cz\u0119\u015bciowe metody najmniejszych kwadrat\u00f3w w Pythonie, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Cz\u0119\u015bciowe najmniejsze kwadraty w Pythonie (krok po kroku) - Statologia\" \/>\n<meta property=\"og:description\" content=\"W tym samouczku wyja\u015bniono, jak wykona\u0107 cz\u0119\u015bciowe metody najmniejszych kwadrat\u00f3w w Pythonie, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T06:54:42+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/svppython1.png\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minuty\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/\",\"url\":\"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/\",\"name\":\"Cz\u0119\u015bciowe najmniejsze kwadraty w Pythonie (krok po kroku) - Statologia\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T06:54:42+00:00\",\"dateModified\":\"2023-07-27T06:54:42+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"W tym samouczku wyja\u015bniono, jak wykona\u0107 cz\u0119\u015bciowe metody najmniejszych kwadrat\u00f3w w Pythonie, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Cz\u0119\u015bciowe najmniejsze kwadraty w pythonie (krok po kroku)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Cz\u0119\u015bciowe najmniejsze kwadraty w Pythonie (krok po kroku) - Statologia","description":"W tym samouczku wyja\u015bniono, jak wykona\u0107 cz\u0119\u015bciowe metody najmniejszych kwadrat\u00f3w w Pythonie, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/","og_locale":"pl_PL","og_type":"article","og_title":"Cz\u0119\u015bciowe najmniejsze kwadraty w Pythonie (krok po kroku) - Statologia","og_description":"W tym samouczku wyja\u015bniono, jak wykona\u0107 cz\u0119\u015bciowe metody najmniejszych kwadrat\u00f3w w Pythonie, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","og_url":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/","og_site_name":"Statorials","article_published_time":"2023-07-27T06:54:42+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/svppython1.png"}],"author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"4 minuty"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/","url":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/","name":"Cz\u0119\u015bciowe najmniejsze kwadraty w Pythonie (krok po kroku) - Statologia","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T06:54:42+00:00","dateModified":"2023-07-27T06:54:42+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"W tym samouczku wyja\u015bniono, jak wykona\u0107 cz\u0119\u015bciowe metody najmniejszych kwadrat\u00f3w w Pythonie, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/najmniej-czesciowe-krawedzie-w-pythonie\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Cz\u0119\u015bciowe najmniejsze kwadraty w pythonie (krok po kroku)"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1209","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1209"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1209\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1209"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1209"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1209"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}