{"id":1147,"date":"2023-07-27T12:12:52","date_gmt":"2023-07-27T12:12:52","guid":{"rendered":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/"},"modified":"2023-07-27T12:12:52","modified_gmt":"2023-07-27T12:12:52","slug":"kompromis-wariancji-uprzedzen","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/","title":{"rendered":"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Aby oceni\u0107 wydajno\u015b\u0107 modelu na zbiorze danych, musimy zmierzy\u0107, jak dobrze przewidywania modelu odpowiadaj\u0105 obserwowanym danym.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W przypadku <a href=\"https:\/\/statorials.org\/pl\/regresja-a-klasyfikacja\/\" target=\"_blank\" rel=\"noopener noreferrer\">modeli regresji<\/a> najcz\u0119\u015bciej stosowan\u0105 metryk\u0105 jest b\u0142\u0105d \u015bredniokwadratowy (MSE), kt\u00f3ry oblicza si\u0119 w nast\u0119puj\u0105cy spos\u00f3b:<\/span><\/p>\n<p> <span style=\"color: #000000;\">MSE = (1\/n)*\u03a3(y <sub>i<\/sub> \u2013 f(x <sub>i<\/sub> )) <sup>2<\/sup><\/span><\/p>\n<p> <span style=\"color: #000000;\">Z\u0142oto:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>n:<\/strong> ca\u0142kowita liczba obserwacji<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>y <sub>i<\/sub> :<\/strong> Warto\u015b\u0107 odpowiedzi i <sup>-tej<\/sup> obserwacji<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>f(x <sub>i<\/sub> ):<\/strong> Przewidywana warto\u015b\u0107 odpowiedzi i- <sup>tej<\/sup> obserwacji<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">Im bardziej prognozy modelu b\u0119d\u0105 zbli\u017cone do obserwacji, tym ni\u017cszy b\u0119dzie MSE.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Nas jednak interesuje tylko <strong>test MSE<\/strong> \u2013 MSE, gdy nasz model zostanie zastosowany do niewidocznych danych. Dzieje si\u0119 tak, poniewa\u017c interesuje nas tylko to, jak model b\u0119dzie dzia\u0142a\u0142 na nieznanych danych, a nie na istniej\u0105cych danych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Na przyk\u0142ad nie ma nic z\u0142ego w tym, \u017ce model przewiduj\u0105cy ceny akcji ma niski wsp\u00f3\u0142czynnik MSE na danych historycznych, ale <em>naprawd\u0119<\/em> chcemy m\u00f3c u\u017cywa\u0107 tego modelu do dok\u0142adnego przewidywania przysz\u0142ych danych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Okazuje si\u0119, \u017ce test MSE nadal mo\u017cna podzieli\u0107 na dwie cz\u0119\u015bci:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1) Wariancja:<\/strong> odnosi si\u0119 do wielko\u015bci, o jak\u0105 zmieni\u0142aby si\u0119 nasza funkcja <em>f<\/em> , gdyby\u015bmy oszacowali j\u0105 przy u\u017cyciu innego zbioru ucz\u0105cego.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2) B\u0142\u0105d:<\/strong> odnosi si\u0119 do b\u0142\u0119du spowodowanego podej\u015bciem do rzeczywistego problemu, kt\u00f3ry mo\u017ce by\u0107 niezwykle skomplikowany, za pomoc\u0105 znacznie prostszego modelu.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Zapisane w kategoriach matematycznych:<\/span><\/p>\n<p> <span style=\"color: #000000;\">Test MSE = Var( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> )) + [Odchylenie ( <em class=\"ph i\">f\u0302(<\/em> x <sub>0<\/sub> ))] <sup>2<\/sup> + Var(\u03b5)<\/span><\/p>\n<p> <span style=\"color: #000000;\">Test MSE = wariancja + b\u0142\u0105d <sup>2<\/sup> + b\u0142\u0105d nieredukowalny<\/span><\/p>\n<p> <span style=\"color: #000000;\">Trzeci sk\u0142adnik, b\u0142\u0105d nieredukowalny, to b\u0142\u0105d, kt\u00f3rego nie mo\u017cna zredukowa\u0107 za pomoc\u0105 \u017cadnego modelu po prostu dlatego, \u017ce w relacji mi\u0119dzy zbiorem zmiennych obja\u015bniaj\u0105cych a <a href=\"https:\/\/statorials.org\/pl\/zmienne-odpowiedzi-wyjasniajace\/\" target=\"_blank\" rel=\"noopener noreferrer\">zmienn\u0105 odpowiedzi<\/a> zawsze wyst\u0119puje <em>szum<\/em> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Modele o <strong>du\u017cym obci\u0105\u017ceniu<\/strong> maj\u0105 zwykle <strong>nisk\u0105 wariancj\u0119<\/strong> . Na przyk\u0142ad modele regresji liniowej maj\u0105 zwykle du\u017ce obci\u0105\u017cenie (zak\u0142adaj\u0105c prost\u0105 liniow\u0105 zale\u017cno\u015b\u0107 mi\u0119dzy zmiennymi obja\u015bniaj\u0105cymi a zmienn\u0105 odpowiedzi) i nisk\u0105 wariancj\u0119 (oszacowania modelu nie b\u0119d\u0105 si\u0119 zbytnio zmienia\u0107 w zale\u017cno\u015bci od pr\u00f3bki). inny).<\/span><\/p>\n<p> <span style=\"color: #000000;\">Jednak modele o <strong>niskim obci\u0105\u017ceniu<\/strong> maj\u0105 zwykle <strong>du\u017c\u0105 wariancj\u0119<\/strong> . Na przyk\u0142ad z\u0142o\u017cone modele nieliniowe maj\u0105 zwykle niskie obci\u0105\u017cenie (nie zak\u0142ada si\u0119 okre\u015blonego zwi\u0105zku mi\u0119dzy zmiennymi obja\u015bniaj\u0105cymi a zmienn\u0105 odpowiedzi) i du\u017c\u0105 wariancj\u0119 (oszacowania modelu mog\u0105 znacznie zmienia\u0107 si\u0119 w zale\u017cno\u015bci od pr\u00f3bki uczenia si\u0119).<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Kompromis odchylenia i wariancji<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\"><strong>Kompromis odchylenie-wariancja<\/strong> odnosi si\u0119 do kompromisu, kt\u00f3ry ma miejsce, gdy zdecydujemy si\u0119 zmniejszy\u0107 odchylenie, co og\u00f3lnie zwi\u0119ksza wariancj\u0119, lub zmniejszy\u0107 wariancj\u0119, co og\u00f3lnie zwi\u0119ksza odchylenie.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Poni\u017cszy wykres pozwala zwizualizowa\u0107 ten kompromis:<\/span> <\/p>\n<p><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter wp-image-11515 \" src=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" alt=\"Kompromis odchylenia i wariancji\" width=\"551\" height=\"400\" srcset=\"\" sizes=\"auto, \"><\/p>\n<p> <span style=\"color: #000000;\">B\u0142\u0105d ca\u0142kowity maleje wraz ze wzrostem z\u0142o\u017cono\u015bci modelu, ale tylko do pewnego punktu. Po przekroczeniu pewnego punktu wariancja zaczyna rosn\u0105\u0107, a b\u0142\u0105d ca\u0142kowity r\u00f3wnie\u017c zaczyna rosn\u0105\u0107.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W praktyce zale\u017cy nam jedynie na minimalizacji ca\u0142kowitego b\u0142\u0119du modelu, niekoniecznie minimalizacji wariancji czy b\u0142\u0119du systematycznego.<\/span> <span style=\"color: #000000;\">Okazuje si\u0119, \u017ce sposobem na zminimalizowanie b\u0142\u0119du ca\u0142kowitego jest znalezienie w\u0142a\u015bciwej r\u00f3wnowagi mi\u0119dzy wariancj\u0105 a obci\u0105\u017ceniem.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Innymi s\u0142owy, chcemy modelu wystarczaj\u0105co z\u0142o\u017conego, aby uchwyci\u0107 prawdziwy zwi\u0105zek mi\u0119dzy zmiennymi obja\u015bniaj\u0105cymi a zmienn\u0105 odpowiedzi, ale niezbyt skomplikowanego, aby wykry\u0107 wzorce, kt\u00f3re w rzeczywisto\u015bci nie istniej\u0105.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Kiedy model jest zbyt z\u0142o\u017cony, powoduje <a href=\"https:\/\/statorials.org\/pl\/nadmierne-dopasowanie-uczenia-maszynowego\/\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>nadmierne dopasowanie<\/strong><\/a> do danych. Dzieje si\u0119 tak, poniewa\u017c zbyt trudno jest znale\u017a\u0107 wzorce w danych ucz\u0105cych, kt\u00f3re s\u0105 po prostu spowodowane przypadkiem. Ten typ modelu prawdopodobnie b\u0119dzie s\u0142abo dzia\u0142a\u0142 na niewidocznych danych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Kiedy jednak model jest zbyt prosty, powoduje to <strong>niedoszacowanie<\/strong> danych. Dzieje si\u0119 tak, poniewa\u017c zak\u0142ada si\u0119, \u017ce prawdziwa zale\u017cno\u015b\u0107 pomi\u0119dzy zmiennymi obja\u015bniaj\u0105cymi a zmienn\u0105 odpowiedzi\u0105 jest prostsza ni\u017c jest w rzeczywisto\u015bci.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Sposobem wyboru optymalnych modeli w uczeniu maszynowym jest znalezienie r\u00f3wnowagi mi\u0119dzy obci\u0105\u017ceniem a wariancj\u0105, aby zminimalizowa\u0107 b\u0142\u0105d testowania modelu na przysz\u0142ych, niewidocznych danych.<\/span><\/p>\n<p> <span style=\"color: #000000;\">W praktyce najcz\u0119stszym sposobem minimalizacji MSE test\u00f3w jest zastosowanie <a href=\"https:\/\/statorials.org\/pl\/k-krotna-walidacja-krzyzowa\/\" target=\"_blank\" rel=\"noopener noreferrer\">walidacji krzy\u017cowej<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Aby oceni\u0107 wydajno\u015b\u0107 modelu na zbiorze danych, musimy zmierzy\u0107, jak dobrze przewidywania modelu odpowiadaj\u0105 obserwowanym danym. W przypadku modeli regresji najcz\u0119\u015bciej stosowan\u0105 metryk\u0105 jest b\u0142\u0105d \u015bredniokwadratowy (MSE), kt\u00f3ry oblicza si\u0119 w nast\u0119puj\u0105cy spos\u00f3b: MSE = (1\/n)*\u03a3(y i \u2013 f(x i )) 2 Z\u0142oto: n: ca\u0142kowita liczba obserwacji y i : Warto\u015b\u0107 odpowiedzi i -tej obserwacji [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1147","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?<\/title>\n<meta name=\"description\" content=\"Ten samouczek zawiera wyja\u015bnienie kompromisu wariancji odchylenia w uczeniu maszynowym, w tym przyk\u0142ady.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?\" \/>\n<meta property=\"og:description\" content=\"Ten samouczek zawiera wyja\u015bnienie kompromisu wariancji odchylenia w uczeniu maszynowym, w tym przyk\u0142ady.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T12:12:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuty\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\",\"url\":\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\",\"name\":\"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T12:12:52+00:00\",\"dateModified\":\"2023-07-27T12:12:52+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"Ten samouczek zawiera wyja\u015bnienie kompromisu wariancji odchylenia w uczeniu maszynowym, w tym przyk\u0142ady.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?","description":"Ten samouczek zawiera wyja\u015bnienie kompromisu wariancji odchylenia w uczeniu maszynowym, w tym przyk\u0142ady.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/","og_locale":"pl_PL","og_type":"article","og_title":"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?","og_description":"Ten samouczek zawiera wyja\u015bnienie kompromisu wariancji odchylenia w uczeniu maszynowym, w tym przyk\u0142ady.","og_url":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/","og_site_name":"Statorials","article_published_time":"2023-07-27T12:12:52+00:00","og_image":[{"url":"https:\/\/statorials.org\/wp-content\/uploads\/2023\/08\/biais_variance1.png"}],"author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"3 minuty"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/","url":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/","name":"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T12:12:52+00:00","dateModified":"2023-07-27T12:12:52+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"Ten samouczek zawiera wyja\u015bnienie kompromisu wariancji odchylenia w uczeniu maszynowym, w tym przyk\u0142ady.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Jaki jest kompromis wariancji odchylenia w uczeniu maszynowym?"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1147","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1147"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1147\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1147"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1147"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1147"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}