{"id":1164,"date":"2023-07-27T10:36:37","date_gmt":"2023-07-27T10:36:37","guid":{"rendered":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/"},"modified":"2023-07-27T10:36:37","modified_gmt":"2023-07-27T10:36:37","slug":"kwadratowa-analiza-dyskryminacyjna","status":"publish","type":"post","link":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/","title":{"rendered":"Wprowadzenie do kwadratowej analizy dyskryminacyjnej"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\">Kiedy mamy zestaw zmiennych predykcyjnych i chcemy zaklasyfikowa\u0107 <a href=\"https:\/\/statorials.org\/pl\/zmienne-odpowiedzi-wyjasniajace\/\" target=\"_blank\" rel=\"noopener noreferrer\">zmienn\u0105 odpowiedzi<\/a> do jednej z dw\u00f3ch klas, zazwyczaj u\u017cywamy <a href=\"https:\/\/statorials.org\/pl\/regresja-logistyczna-1\/\" target=\"_blank\" rel=\"noopener noreferrer\">regresji logistycznej<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Je\u015bli jednak zmienna odpowiedzi ma wi\u0119cej ni\u017c dwie mo\u017cliwe klasy, zazwyczaj stosujemy <a href=\"https:\/\/statorials.org\/pl\/liniowa-analiza-dyskryminacyjna\/\" target=\"_blank\" rel=\"noopener noreferrer\">liniow\u0105 analiz\u0119 dyskryminacyjn\u0105<\/a> , cz\u0119sto nazywan\u0105 LDA.<\/span><\/p>\n<p> <span style=\"color: #000000;\">LDA zak\u0142ada, \u017ce <strong>(1)<\/strong> obserwacje w ka\u017cdej klasie maj\u0105 <a href=\"https:\/\/statorials.org\/pl\/rozk\u0142ad-normalny\/\" target=\"_blank\" rel=\"noopener noreferrer\">rozk\u0142ad normalny<\/a> i <strong>(2)<\/strong> obserwacje w ka\u017cdej klasie maj\u0105 t\u0119 sam\u0105 macierz kowariancji. Korzystaj\u0105c z tych za\u0142o\u017ce\u0144, LDA znajduje nast\u0119pnie nast\u0119puj\u0105ce warto\u015bci:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03bc <sub>k<\/sub><\/strong> : \u015arednia wszystkich obserwacji treningowych k- <sup>tej<\/sup> klasy.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c3 <sup>2<\/sup><\/strong> : \u015arednia wa\u017cona wariancji pr\u00f3bki dla ka\u017cdej z <em>k<\/em> klas.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c0 <sub>k<\/sub><\/strong> : Proporcja obserwacji ucz\u0105cych nale\u017c\u0105cych do k- <sup>tej<\/sup> klasy.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">LDA nast\u0119pnie wstawia te liczby do nast\u0119puj\u0105cego wzoru i przypisuje ka\u017cd\u0105 obserwacj\u0119 X = x do klasy, dla kt\u00f3rej wz\u00f3r daje najwi\u0119ksz\u0105 warto\u015b\u0107:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>re <sub>k<\/sub> (x) = x * (\u03bc <sub>k<\/sub> \/\u03c3 <sup>2<\/sup> ) \u2013 (\u03bc <sub>k<\/sub> <sup>2<\/sup> \/2\u03c3 <sup>2<\/sup> ) + log(\u03c0 <sub>k<\/sub> )<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">LDA ma w nazwie <em>liniow\u0105<\/em> , poniewa\u017c warto\u015b\u0107 wygenerowana przez powy\u017csz\u0105 funkcj\u0119 pochodzi z wyniku <em>funkcji liniowych<\/em> x.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Rozszerzeniem liniowej analizy dyskryminacyjnej jest <strong>kwadratowa analiza dyskryminacyjna<\/strong> , cz\u0119sto nazywana QDA.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Metoda ta jest podobna do LDA i r\u00f3wnie\u017c zak\u0142ada, \u017ce obserwacje ka\u017cdej klasy maj\u0105 rozk\u0142ad normalny, ale nie zak\u0142ada, \u017ce ka\u017cda klasa ma t\u0119 sam\u0105 macierz kowariancji. Zamiast tego QDA zak\u0142ada, \u017ce ka\u017cda klasa ma w\u0142asn\u0105 macierz kowariancji.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Innymi s\u0142owy zak\u0142ada, \u017ce obserwacja k- <sup>tej<\/sup> klasy ma posta\u0107 X ~ N(\u03bc <sub>k<\/sub> , \u03a3 <sub>k<\/sub> ).<\/span><\/p>\n<p> <span style=\"color: #000000;\">Korzystaj\u0105c z tego za\u0142o\u017cenia, QDA znajduje nast\u0119pnie nast\u0119puj\u0105ce warto\u015bci:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>\u03bc <sub>k<\/sub><\/strong> : \u015arednia wszystkich obserwacji treningowych <sup>k-tej<\/sup> klasy.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03a3 <sub>k<\/sub> :<\/strong> Macierz kowariancji <sup>k-tej<\/sup> klasy.<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>\u03c0 <sub>k<\/sub><\/strong> : Proporcja obserwacji ucz\u0105cych nale\u017c\u0105cych do k- <sup>tej<\/sup> klasy.<\/span><\/li>\n<\/ul>\n<p> <span style=\"color: #000000;\">QDA nast\u0119pnie wstawia te liczby do nast\u0119puj\u0105cego wzoru i przypisuje ka\u017cd\u0105 obserwacj\u0119 X = x do klasy, dla kt\u00f3rej wz\u00f3r daje najwi\u0119ksz\u0105 warto\u015b\u0107:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>D <sub>k<\/sub> (x) = -1\/2*(x-\u03bc <sub>k<\/sub> ) <sup>T<\/sup> \u03a3 <sub>k<\/sub> <sup>-1<\/sup> (x-\u03bc <sub>k<\/sub> ) \u2013 1\/2*log|\u03a3 <sub>k<\/sub> | + log( <sub>\u03c0k<\/sub> )<\/strong><\/span><\/p>\n<p> <span style=\"color: #000000;\">Nale\u017cy zauwa\u017cy\u0107, \u017ce QDA ma w nazwie <em>kwadrat<\/em> , poniewa\u017c warto\u015b\u0107 wygenerowana przez powy\u017csz\u0105 funkcj\u0119 pochodzi z wyniku <em>funkcji kwadratowych<\/em> x.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>LDA vs QDA: kiedy u\u017cywa\u0107 jednego lub drugiego<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">G\u0142\u00f3wna r\u00f3\u017cnica mi\u0119dzy LDA i QDA polega na tym, \u017ce LDA zak\u0142ada, \u017ce ka\u017cda klasa ma wsp\u00f3ln\u0105 macierz kowariancji, co czyni j\u0105 znacznie mniej elastycznym klasyfikatorem ni\u017c QDA.<\/span><\/p>\n<p> <span style=\"color: #000000;\">To z natury oznacza, \u017ce ma nisk\u0105 wariancj\u0119, tj. b\u0119dzie dzia\u0142a\u0107 tak samo na r\u00f3\u017cnych zbiorach danych ucz\u0105cych.<\/span> <span style=\"color: #000000;\">Wad\u0105 jest to, \u017ce je\u015bli za\u0142o\u017cenie, \u017ce klasy <em>K<\/em> maj\u0105 t\u0119 sam\u0105 kowariancj\u0119, jest fa\u0142szywe, w\u00f3wczas LDA mo\u017ce cierpie\u0107 z powodu <a href=\"https:\/\/statorials.org\/pl\/kompromis-wariancji-uprzedzen\/\" target=\"_blank\" rel=\"noopener noreferrer\">du\u017cego obci\u0105\u017cenia<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">QDA jest og\u00f3lnie preferowana zamiast LDA w nast\u0119puj\u0105cych sytuacjach:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(1)<\/strong> Zbi\u00f3r ucz\u0105cy jest du\u017cy.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>(2)<\/strong> Jest ma\u0142o prawdopodobne, aby klasy <em>K<\/em> mia\u0142y wsp\u00f3ln\u0105 macierz kowariancji.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Kiedy te warunki s\u0105 spe\u0142nione, QDA zwykle dzia\u0142a lepiej, poniewa\u017c jest bardziej elastyczna i mo\u017ce lepiej dostosowa\u0107 si\u0119 do danych.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Jak przygotowa\u0107 dane do QDA<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Zanim zastosujesz do nich model QDA, upewnij si\u0119, \u017ce Twoje dane spe\u0142niaj\u0105 nast\u0119puj\u0105ce wymagania:<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>1. Zmienna odpowiedzi ma charakter kategoryczny<\/strong> . Modele QDA s\u0105 przeznaczone do stosowania w <a href=\"https:\/\/statorials.org\/pl\/regresja-a-klasyfikacja\/\" target=\"_blank\" rel=\"noopener noreferrer\">problemach klasyfikacyjnych<\/a> , to znaczy, gdy zmienn\u0105 odpowiedzi mo\u017cna umie\u015bci\u0107 w klasach lub kategoriach.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>2. Obserwacje w ka\u017cdej klasie maj\u0105 rozk\u0142ad normalny<\/strong> . Najpierw sprawd\u017a, czy rozk\u0142ad warto\u015bci w ka\u017cdej klasie ma w przybli\u017ceniu rozk\u0142ad normalny. Je\u015bli nie, mo\u017cesz <a href=\"https:\/\/statorials.org\/pl\/przekszta\u0142cic-dane-w-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">najpierw przekszta\u0142ci\u0107 dane,<\/a> aby rozk\u0142ad by\u0142 bardziej normalny.<\/span><\/p>\n<p> <span style=\"color: #000000;\"><strong>3. Uwzgl\u0119dnij skrajne warto\u015bci odstaj\u0105ce.<\/strong> Przed zastosowaniem LDA upewnij si\u0119, \u017ce w zbiorze danych znajduj\u0105 si\u0119 skrajne warto\u015bci odstaj\u0105ce. Zwykle mo\u017cna wizualnie sprawdzi\u0107 warto\u015bci odstaj\u0105ce, korzystaj\u0105c po prostu <a href=\"https:\/\/statorials.org\/pl\/wasy-pude\u0142kowe\/\" target=\"_blank\" rel=\"noopener noreferrer\">z wykres\u00f3w pude\u0142kowych<\/a> lub wykres\u00f3w rozrzutu.<\/span><\/p>\n<h3> <strong>QDA w R i Pythonie<\/strong><\/h3>\n<p> Poni\u017csze samouczki zawieraj\u0105 szczeg\u00f3\u0142owe przyk\u0142ady przeprowadzania kwadratowej analizy dyskryminacyjnej w j\u0119zykach R i Python:<\/p>\n<p> <a href=\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna-w-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">Kwadratowa analiza dyskryminacyjna w R (krok po kroku)<\/a><br \/> <a href=\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna-w-pythonie\/\" target=\"_blank\" rel=\"noopener noreferrer\">Kwadratowa analiza dyskryminacyjna w Pythonie (krok po kroku)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Kiedy mamy zestaw zmiennych predykcyjnych i chcemy zaklasyfikowa\u0107 zmienn\u0105 odpowiedzi do jednej z dw\u00f3ch klas, zazwyczaj u\u017cywamy regresji logistycznej . Je\u015bli jednak zmienna odpowiedzi ma wi\u0119cej ni\u017c dwie mo\u017cliwe klasy, zazwyczaj stosujemy liniow\u0105 analiz\u0119 dyskryminacyjn\u0105 , cz\u0119sto nazywan\u0105 LDA. LDA zak\u0142ada, \u017ce (1) obserwacje w ka\u017cdej klasie maj\u0105 rozk\u0142ad normalny i (2) obserwacje w ka\u017cdej [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1164","post","type-post","status-publish","format-standard","hentry","category-przewodnik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Wprowadzenie do kwadratowej analizy dyskryminacyjnej - Statologia<\/title>\n<meta name=\"description\" content=\"Ten samouczek zawiera wprowadzenie do kwadratowej analizy dyskryminacyjnej, powszechnie stosowanej metody w uczeniu maszynowym.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wprowadzenie do kwadratowej analizy dyskryminacyjnej - Statologia\" \/>\n<meta property=\"og:description\" content=\"Ten samouczek zawiera wprowadzenie do kwadratowej analizy dyskryminacyjnej, powszechnie stosowanej metody w uczeniu maszynowym.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T10:36:37+00:00\" \/>\n<meta name=\"author\" content=\"Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minuty\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/\",\"url\":\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/\",\"name\":\"Wprowadzenie do kwadratowej analizy dyskryminacyjnej - Statologia\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/pl\/#website\"},\"datePublished\":\"2023-07-27T10:36:37+00:00\",\"dateModified\":\"2023-07-27T10:36:37+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\"},\"description\":\"Ten samouczek zawiera wprowadzenie do kwadratowej analizy dyskryminacyjnej, powszechnie stosowanej metody w uczeniu maszynowym.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/#breadcrumb\"},\"inLanguage\":\"pl-PL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Dom\",\"item\":\"https:\/\/statorials.org\/pl\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wprowadzenie do kwadratowej analizy dyskryminacyjnej\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/pl\/#website\",\"url\":\"https:\/\/statorials.org\/pl\/\",\"name\":\"Statorials\",\"description\":\"Tw\u00f3j przewodnik po kompetencjach statystycznych!\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/pl\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pl-PL\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965\",\"name\":\"Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pl-PL\",\"@id\":\"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Benjamin Anderson\"},\"description\":\"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej\",\"sameAs\":[\"https:\/\/statorials.org\/pl\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wprowadzenie do kwadratowej analizy dyskryminacyjnej - Statologia","description":"Ten samouczek zawiera wprowadzenie do kwadratowej analizy dyskryminacyjnej, powszechnie stosowanej metody w uczeniu maszynowym.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/","og_locale":"pl_PL","og_type":"article","og_title":"Wprowadzenie do kwadratowej analizy dyskryminacyjnej - Statologia","og_description":"Ten samouczek zawiera wprowadzenie do kwadratowej analizy dyskryminacyjnej, powszechnie stosowanej metody w uczeniu maszynowym.","og_url":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/","og_site_name":"Statorials","article_published_time":"2023-07-27T10:36:37+00:00","author":"Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Benjamin Anderson","Szacowany czas czytania":"3 minuty"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/","url":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/","name":"Wprowadzenie do kwadratowej analizy dyskryminacyjnej - Statologia","isPartOf":{"@id":"https:\/\/statorials.org\/pl\/#website"},"datePublished":"2023-07-27T10:36:37+00:00","dateModified":"2023-07-27T10:36:37+00:00","author":{"@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965"},"description":"Ten samouczek zawiera wprowadzenie do kwadratowej analizy dyskryminacyjnej, powszechnie stosowanej metody w uczeniu maszynowym.","breadcrumb":{"@id":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/pl\/kwadratowa-analiza-dyskryminacyjna\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Dom","item":"https:\/\/statorials.org\/pl\/"},{"@type":"ListItem","position":2,"name":"Wprowadzenie do kwadratowej analizy dyskryminacyjnej"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/pl\/#website","url":"https:\/\/statorials.org\/pl\/","name":"Statorials","description":"Tw\u00f3j przewodnik po kompetencjach statystycznych!","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/pl\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pl-PL"},{"@type":"Person","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/6484727a4612df3e69f016c3129c6965","name":"Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/statorials.org\/pl\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/pl\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Benjamin Anderson"},"description":"Cze\u015b\u0107, jestem Benjamin i jestem emerytowanym profesorem statystyki, kt\u00f3ry zosta\u0142 oddanym nauczycielem Statorials. Dzi\u0119ki bogatemu do\u015bwiadczeniu i wiedzy specjalistycznej w dziedzinie statystyki ch\u0119tnie dziel\u0119 si\u0119 swoj\u0105 wiedz\u0105, aby wzmocni\u0107 pozycj\u0119 uczni\u00f3w za po\u015brednictwem Statorials. Wiedzie\u0107 wi\u0119cej","sameAs":["https:\/\/statorials.org\/pl"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1164","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/comments?post=1164"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/posts\/1164\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/media?parent=1164"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/categories?post=1164"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/pl\/wp-json\/wp\/v2\/tags?post=1164"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}