{"id":3817,"date":"2023-07-15T09:08:37","date_gmt":"2023-07-15T09:08:37","guid":{"rendered":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/"},"modified":"2023-07-15T09:08:37","modified_gmt":"2023-07-15T09:08:37","slug":"najmniej-wazone-kwadraty-w-pythonie","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/","title":{"rendered":"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w pythonie"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Jednym z <a href=\"https:\/\/statorials.org\/pl\/za\u0142ozenia-regresji-liniowej\/\" target=\"_blank\" rel=\"noopener\">kluczowych za\u0142o\u017ce\u0144 regresji liniowej<\/a> jest to, \u017ce <a href=\"https:\/\/statorials.org\/pl\/pozosta\u0142osc\/\" target=\"_blank\" rel=\"noopener\">reszty<\/a> maj\u0105 rozk\u0142ad z r\u00f3wn\u0105 wariancj\u0105 na ka\u017cdym poziomie zmiennej predykcyjnej. Za\u0142o\u017cenie to znane jest jako <strong>homoskedastyczno\u015b\u0107<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u017celi to za\u0142o\u017cenie nie jest przestrzegane, w resztach wyst\u0119puje <a href=\"https:\/\/statorials.org\/pl\/regresja-heteroskedastycznosci\/\" target=\"_blank\" rel=\"noopener\">heteroskedastyczno\u015b\u0107<\/a> . Kiedy tak si\u0119 dzieje, wyniki regresji staj\u0105 si\u0119 niewiarygodne.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednym ze sposob\u00f3w rozwi\u0105zania tego problemu jest zastosowanie <strong>regresji wa\u017conej metod\u0105 najmniejszych kwadrat\u00f3w<\/strong> , kt\u00f3ra przypisuje wagi <a href=\"https:\/\/statorials.org\/pl\/obserwacja-w-statystyce\/\" target=\"_blank\" rel=\"noopener\">obserwacjom<\/a> w taki spos\u00f3b, \u017ce obserwacje o ma\u0142ej wariancji b\u0142\u0119du otrzymuj\u0105 wi\u0119ksz\u0105 wag\u0119, poniewa\u017c zawieraj\u0105 wi\u0119cej informacji w por\u00f3wnaniu z obserwacjami o wi\u0119kszej wariancji b\u0142\u0119du.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Ten samouczek zawiera przyk\u0142ad krok po kroku wykonywania wa\u017conej regresji metod\u0105 najmniejszych kwadrat\u00f3w w j\u0119zyku Python.<\/span><\/p>\n<h2> <span style=\"color: #000000;\"><strong>Krok 1: Utw\u00f3rz dane<\/strong><\/span><\/h2>\n<p> <span style=\"color: #000000;\">Najpierw utw\u00f3rzmy nast\u0119puj\u0105c\u0105 pand\u0119 DataFrame zawieraj\u0105c\u0105 informacje o liczbie przepracowanych godzin i ocenie ko\u0144cowej z egzaminu dla 16 uczni\u00f3w w klasie:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008000;\">import<\/span> pandas <span style=\"color: #008000;\">as<\/span> pd\n\n<span style=\"color: #008080;\">#createDataFrame\n<\/span>df = pd. <span style=\"color: #3366ff;\">DataFrame<\/span> ({' <span style=\"color: #ff0000;\">hours<\/span> ': [1, 1, 2, 2, 2, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 8],\n                   ' <span style=\"color: #ff0000;\">score<\/span> ': [48, 78, 72, 70, 66, 92, 93, 75, 75, 80, 95, 97,\n                             90, 96, 99, 99]})\n\n<span style=\"color: #008080;\">#view first five rows of DataFrame\n<\/span><span style=\"color: #008000;\">print<\/span> ( <span style=\"color: #3366ff;\">df.head<\/span> ())\n\n   hours score\n0 1 48\n1 1 78\n2 2 72\n3 2 70\n4 2 66<\/strong><\/pre>\n<h2> <span style=\"color: #000000;\"><strong>Krok 2: Dopasuj prosty model regresji liniowej<\/strong><\/span><\/h2>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie u\u017cyjemy funkcji modu\u0142u <strong>statsmodels<\/strong> , aby dopasowa\u0107 prosty model regresji liniowej, wykorzystuj\u0105c <strong>godziny<\/strong> jako zmienn\u0105 predykcyjn\u0105 i <strong>wynik<\/strong> jako zmienn\u0105 odpowiedzi:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #008000;\">import<\/span> statsmodels.api <span style=\"color: #008000;\">as<\/span> sm\n\n<span style=\"color: #008080;\">#define predictor and response variables\n<\/span>y = df[' <span style=\"color: #ff0000;\">score<\/span> ']\nX = df[' <span style=\"color: #ff0000;\">hours<\/span> ']\n\n<span style=\"color: #008080;\">#add constant to predictor variables\n<\/span>X = sm. <span style=\"color: #3366ff;\">add_constant<\/span> (x)\n\n<span style=\"color: #008080;\">#fit linear regression model\n<\/span>fit = sm. <span style=\"color: #3366ff;\">OLS<\/span> (y,x). <span style=\"color: #3366ff;\">fit<\/span> ()\n\n<span style=\"color: #008080;\">#view model summary\n<\/span><span style=\"color: #008000;\">print<\/span> ( <span style=\"color: #3366ff;\">fit.summary<\/span> ())\n\n                            OLS Regression Results                            \n==================================================== ============================\nDept. Variable: R-squared score: 0.630\nModel: OLS Adj. R-squared: 0.603\nMethod: Least Squares F-statistic: 23.80\nDate: Mon, 31 Oct 2022 Prob (F-statistic): 0.000244\nTime: 11:19:54 Log-Likelihood: -57.184\nNo. Observations: 16 AIC: 118.4\nDf Residuals: 14 BIC: 119.9\nModel: 1                                         \nCovariance Type: non-robust                                         \n==================================================== ============================\n                 coef std err t P&gt;|t| [0.025 0.975]\n-------------------------------------------------- ----------------------------\nconst 60.4669 5.128 11.791 0.000 49.468 71.465\nhours 5.5005 1.127 4.879 0.000 3.082 7.919\n==================================================== ============================\nOmnibus: 0.041 Durbin-Watson: 1.910\nProb(Omnibus): 0.980 Jarque-Bera (JB): 0.268\nSkew: -0.010 Prob(JB): 0.875\nKurtosis: 2.366 Cond. No. 10.5<\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Z podsumowania modelu widzimy, \u017ce warto\u015b\u0107 R-kwadrat modelu wynosi <strong>0,630<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>Powi\u0105zane:<\/strong> <a href=\"https:\/\/statorials.org\/pl\/dobra-wartosc-r-do-kwadratu\/\" target=\"_blank\" rel=\"noopener\">Jaka jest dobra warto\u015b\u0107 R-kwadrat?<\/a><\/span><\/p>\n<h2> <span style=\"color: #000000;\"><strong>Krok 3: Dopasuj wa\u017cony model najmniejszych kwadrat\u00f3w<\/strong><\/span><\/h2>\n<p> <span style=\"color: #000000;\">Nast\u0119pnie mo\u017cemy u\u017cy\u0107 funkcji <strong>statsmodels<\/strong> <strong>WLS()<\/strong> do wykonania wa\u017conej metody najmniejszych kwadrat\u00f3w, ustawiaj\u0105c wagi w taki spos\u00f3b, aby obserwacje o mniejszej wariancji otrzyma\u0142y wi\u0119ksz\u0105 wag\u0119:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <span style=\"color: #000000;\"><strong><span style=\"color: #008080;\">#define weights to use\n<\/span>wt = 1\/smf. <span style=\"color: #3366ff;\">ols<\/span> (' <span style=\"color: #ff0000;\">fit.resid.abs() ~ fit.fittedvalues<\/span> ', data=df). <span style=\"color: #3366ff;\">fit<\/span> (). <span style=\"color: #3366ff;\">fitted values<\/span> **2\n\n<span style=\"color: #008080;\">#fit weighted least squares regression model\n<\/span>fit_wls = sm. <span style=\"color: #3366ff;\">WLS<\/span> (y, X, weights=wt). <span style=\"color: #3366ff;\">fit<\/span> ()\n\n<span style=\"color: #008080;\">#view summary of weighted least squares regression model\n<\/span><span style=\"color: #008000;\">print<\/span> ( <span style=\"color: #3366ff;\">fit_wls.summary<\/span> ())\n\n                            WLS Regression Results                            \n==================================================== ============================\nDept. Variable: R-squared score: 0.676\nModel: WLS Adj. R-squared: 0.653\nMethod: Least Squares F-statistic: 29.24\nDate: Mon, 31 Oct 2022 Prob (F-statistic): 9.24e-05\nTime: 11:20:10 Log-Likelihood: -55.074\nNo. Comments: 16 AIC: 114.1\nDf Residuals: 14 BIC: 115.7\nModel: 1                                         \nCovariance Type: non-robust                                         \n==================================================== ============================\n                 coef std err t P&gt;|t| [0.025 0.975]\n-------------------------------------------------- ----------------------------\nconst 63.9689 5.159 12.400 0.000 52.905 75.033\nhours 4.7091 0.871 5.407 0.000 2.841 6.577\n==================================================== ============================\nOmnibus: 2,482 Durbin-Watson: 1,786\nProb(Omnibus): 0.289 Jarque-Bera (JB): 1.058\nSkew: 0.029 Prob(JB): 0.589\nKurtosis: 1.742 Cond. No. 17.6\n==================================================== ============================<\/strong><\/span><\/pre>\n<p> <span style=\"color: #000000;\">Z wyniku widzimy, \u017ce warto\u015b\u0107 R-kwadrat dla tego wa\u017conego modelu najmniejszych kwadrat\u00f3w wzros\u0142a do <strong>0,676<\/strong> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Oznacza to, \u017ce wa\u017cony model najmniejszych kwadrat\u00f3w jest w stanie wyja\u015bni\u0107 wi\u0119cej wariancji w wynikach egzamin\u00f3w ni\u017c prosty model regresji liniowej.<\/span><\/p>\n<p> <span style=\"color: #000000;\">To m\u00f3wi nam, \u017ce wa\u017cony model najmniejszych kwadrat\u00f3w zapewnia lepsze dopasowanie do danych w por\u00f3wnaniu z prostym modelem regresji liniowej.<\/span><\/p>\n<h2> <span style=\"color: #000000;\"><strong>Dodatkowe zasoby<\/strong><\/span><\/h2>\n<p> <span style=\"color: #000000;\">Poni\u017csze samouczki wyja\u015bniaj\u0105, jak wykonywa\u0107 inne typowe zadania w Pythonie:<\/span><\/p>\n<p> <a href=\"https:\/\/statorials.org\/pl\/wykres-pozosta\u0142osci-pythona\/\" target=\"_blank\" rel=\"noopener\">Jak utworzy\u0107 wykres resztkowy w Pythonie<\/a><br \/> <a href=\"https:\/\/statorials.org\/pl\/jakas-fabu\u0142a-pythona\/\" target=\"_blank\" rel=\"noopener\">Jak utworzy\u0107 wykres QQ w Pythonie<\/a><br \/> <a href=\"https:\/\/statorials.org\/pl\/multicolinearite-w-pythonie\/\" target=\"_blank\" rel=\"noopener\">Jak przetestowa\u0107 wieloliniowo\u015b\u0107 w Pythonie<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jednym z kluczowych za\u0142o\u017ce\u0144 regresji liniowej jest to, \u017ce reszty maj\u0105 rozk\u0142ad z r\u00f3wn\u0105 wariancj\u0105 na ka\u017cdym poziomie zmiennej predykcyjnej. Za\u0142o\u017cenie to znane jest jako homoskedastyczno\u015b\u0107 . Je\u017celi to za\u0142o\u017cenie nie jest przestrzegane, w resztach wyst\u0119puje heteroskedastyczno\u015b\u0107 . Kiedy tak si\u0119 dzieje, wyniki regresji staj\u0105 si\u0119 niewiarygodne. Jednym ze sposob\u00f3w rozwi\u0105zania tego problemu jest zastosowanie [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-3817","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w Pythonie - Statologia<\/title>\n<meta name=\"description\" content=\"W tym samouczku wyja\u015bniono, jak przeprowadzi\u0107 regresj\u0119 wa\u017con\u0105 metod\u0105 najmniejszych kwadrat\u00f3w w j\u0119zyku Python, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w Pythonie - Statologia\" \/>\n<meta property=\"og:description\" content=\"W tym samouczku wyja\u015bniono, jak przeprowadzi\u0107 regresj\u0119 wa\u017con\u0105 metod\u0105 najmniejszych kwadrat\u00f3w w j\u0119zyku Python, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-15T09:08:37+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuty\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/\",\"url\":\"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/\",\"name\":\"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w Pythonie - Statologia\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-15T09:08:37+00:00\",\"dateModified\":\"2023-07-15T09:08:37+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"W tym samouczku wyja\u015bniono, jak przeprowadzi\u0107 regresj\u0119 wa\u017con\u0105 metod\u0105 najmniejszych kwadrat\u00f3w w j\u0119zyku Python, \u0142\u0105cznie z przyk\u0142adem krok po kroku.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w pythonie\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w Pythonie - Statologia","description":"W tym samouczku wyja\u015bniono, jak przeprowadzi\u0107 regresj\u0119 wa\u017con\u0105 metod\u0105 najmniejszych kwadrat\u00f3w w j\u0119zyku Python, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/","og_locale":"pl_PL","og_type":"article","og_title":"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w Pythonie - Statologia","og_description":"W tym samouczku wyja\u015bniono, jak przeprowadzi\u0107 regresj\u0119 wa\u017con\u0105 metod\u0105 najmniejszych kwadrat\u00f3w w j\u0119zyku Python, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","og_url":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/","og_site_name":"Statorials","article_published_time":"2023-07-15T09:08:37+00:00","author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"3 minuty"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/","url":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/","name":"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w Pythonie - Statologia","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-15T09:08:37+00:00","dateModified":"2023-07-15T09:08:37+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"W tym samouczku wyja\u015bniono, jak przeprowadzi\u0107 regresj\u0119 wa\u017con\u0105 metod\u0105 najmniejszych kwadrat\u00f3w w j\u0119zyku Python, \u0142\u0105cznie z przyk\u0142adem krok po kroku.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/najmniej-wazone-kwadraty-w-pythonie\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Jak wykona\u0107 wa\u017con\u0105 regresj\u0119 metod\u0105 najmniejszych kwadrat\u00f3w w pythonie"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/3817","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=3817"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/3817\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=3817"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=3817"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=3817"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}