{"id":1233,"date":"2023-07-27T04:52:33","date_gmt":"2023-07-27T04:52:33","guid":{"rendered":"https:\/\/statorials.org\/de\/xgboost-in-r\/"},"modified":"2023-07-27T04:52:33","modified_gmt":"2023-07-27T04:52:33","slug":"xgboost-in-r","status":"publish","type":"post","link":"https:\/\/statorials.org\/de\/xgboost-in-r\/","title":{"rendered":"Xgboost in r: ein schritt-f\u00fcr-schritt-beispiel"},"content":{"rendered":"<p><\/p>\n<hr>\n<p><span style=\"color: #000000;\"><a href=\"https:\/\/statorials.org\/de\/fordern-sie-maschinelles-lernen\/\" target=\"_blank\" rel=\"noopener noreferrer\">Boosting<\/a> ist eine Technik des maschinellen Lernens, die nachweislich Modelle mit hoher Vorhersagegenauigkeit erzeugt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Eine der gebr\u00e4uchlichsten M\u00f6glichkeiten, Boosting in der Praxis umzusetzen, ist die Verwendung <strong>von XGBoost<\/strong> , kurz f\u00fcr \u201eExtreme Gradient Boosting\u201c.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Verwendung von XGBoost, um ein erweitertes Modell in R anzupassen.<\/span><\/p>\n<h3> <strong><span style=\"color: #000000;\">Schritt 1: Laden Sie die erforderlichen Pakete<\/span><\/strong><\/h3>\n<p> <span style=\"color: #000000;\">Zuerst laden wir die notwendigen Bibliotheken.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\">library<\/span> (xgboost) <span style=\"color: #008080;\">#for fitting the xgboost model<\/span>\n<span style=\"color: #993300;\">library<\/span> (caret) <span style=\"color: #008080;\">#for general data preparation and model fitting<\/span>\n<\/strong><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Schritt 2: Daten laden<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">In diesem Beispiel werden wir ein verbessertes Regressionsmodell an den <strong>Boston-<\/strong> Datensatz aus dem <strong>MASS-<\/strong> Paket anpassen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Dieser Datensatz enth\u00e4lt 13 Pr\u00e4diktorvariablen, die wir verwenden werden, um eine <a href=\"https:\/\/statorials.org\/de\/variablen-erklarende-antworten\/\" target=\"_blank\" rel=\"noopener noreferrer\">Antwortvariable<\/a> namens <strong>mdev<\/strong> vorherzusagen, die den Medianwert von H\u00e4usern in verschiedenen Z\u00e4hlbezirken rund um Boston darstellt.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #000000;\"><span style=\"color: #008080;\">#load the data\n<\/span>data = MASS::Boston\n\n<span style=\"color: #008080;\">#view the structure of the data\n<\/span>str(data) \n\n'data.frame': 506 obs. of 14 variables:\n $ crim: num 0.00632 0.02731 0.02729 0.03237 0.06905 ...\n $ zn : num 18 0 0 0 0 0 12.5 12.5 12.5 12.5 ...\n $ indus: num 2.31 7.07 7.07 2.18 2.18 2.18 7.87 7.87 7.87 7.87 ...\n $chas: int 0 0 0 0 0 0 0 0 0 0 ...\n $ nox: num 0.538 0.469 0.469 0.458 0.458 0.458 0.524 0.524 0.524 0.524 ...\n $rm: num 6.58 6.42 7.18 7 7.15 ...\n $ age: num 65.2 78.9 61.1 45.8 54.2 58.7 66.6 96.1 100 85.9 ...\n $ dis: num 4.09 4.97 4.97 6.06 6.06 ...\n $rad: int 1 2 2 3 3 3 5 5 5 5 ...\n $ tax: num 296 242 242 222 222 222 311 311 311 311 ...\n $ptratio: num 15.3 17.8 17.8 18.7 18.7 18.7 15.2 15.2 15.2 15.2 ...\n $ black: num 397 397 393 395 397 ...\n $ lstat: num 4.98 9.14 4.03 2.94 5.33 ...\n $ medv: num 24 21.6 34.7 33.4 36.2 28.7 22.9 27.1 16.5 18.9 ...\n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Wir k\u00f6nnen sehen, dass der Datensatz insgesamt 506 <a href=\"https:\/\/statorials.org\/de\/beobachtung-in-der-statistik\/\" target=\"_blank\" rel=\"noopener noreferrer\">Beobachtungen<\/a> und 14 Variablen enth\u00e4lt.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Schritt 3: Bereiten Sie die Daten vor<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Als N\u00e4chstes verwenden wir die Funktion <strong>createDataPartition()<\/strong> aus dem Caret-Paket, um den urspr\u00fcnglichen Datensatz in einen Trainings- und Testsatz aufzuteilen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">In diesem Beispiel verwenden wir 80 % des Originaldatensatzes als Teil des Trainingssatzes.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Beachten Sie, dass das xgboost-Paket auch Matrixdaten verwendet, daher verwenden wir die Funktion <strong>data.matrix(),<\/strong> um unsere Pr\u00e4diktorvariablen zu speichern.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #000000;\"><span style=\"color: #008080;\">#make this example reproducible\n<\/span>set.seed(0)\n\n<span style=\"color: #008080;\">#split into training (80%) and testing set (20%)\n<\/span>parts = createDataPartition(data$medv, p = <span style=\"color: #008000;\">.8<\/span> , list = <span style=\"color: #008000;\">F<\/span> )\ntrain = data[parts, ]\ntest = data[-parts, ]\n\n<span style=\"color: #008080;\">#define predictor and response variables in training set\n<\/span>train_x = data. <span style=\"color: #3366ff;\">matrix<\/span> (train[, -13])\ntrain_y = train[,13]\n\n<span style=\"color: #008080;\">#define predictor and response variables in testing set\n<\/span>test_x = data. <span style=\"color: #3366ff;\">matrix<\/span> (test[, -13])\ntest_y = test[, 13]\n\n<span style=\"color: #008080;\">#define final training and testing sets\n<\/span>xgb_train = xgb. <span style=\"color: #3366ff;\">DMatrix<\/span> (data = train_x, label = train_y)\nxgb_test = xgb. <span style=\"color: #3366ff;\">DMatrix<\/span> (data = test_x, label = test_y)\n<\/span><\/span><\/strong><\/pre>\n<h3> <span style=\"color: #000000;\"><strong>Schritt 4: Passen Sie das Modell an<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Als N\u00e4chstes optimieren wir das XGBoost-Modell mithilfe der Funktion <strong>xgb.train()<\/strong> , die den Trainings- und Test-RMSE (mittlerer quadratischer Fehler) f\u00fcr jeden Boosting-Zyklus anzeigt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Beachten Sie, dass wir uns f\u00fcr dieses Beispiel f\u00fcr die Verwendung von 70 Runden entschieden haben, bei viel gr\u00f6\u00dferen Datens\u00e4tzen ist es jedoch nicht ungew\u00f6hnlich, Hunderte oder sogar Tausende von Runden zu verwenden. Bedenken Sie jedoch, dass die Laufzeit umso l\u00e4nger ist, je mehr Runden es gibt.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Beachten Sie au\u00dferdem, dass das Argument <strong>\u201emax.degree\u201c<\/strong> die Entwicklungstiefe einzelner Entscheidungsb\u00e4ume angibt. Normalerweise w\u00e4hlen wir diese Zahl recht niedrig, etwa 2 oder 3, um kleinere B\u00e4ume wachsen zu lassen. Es hat sich gezeigt, dass dieser Ansatz tendenziell genauere Modelle liefert.<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #000000;\"><span style=\"color: #008080;\">#define watchlist\n<\/span>watchlist = list(train=xgb_train, test=xgb_test)\n\n<span style=\"color: #008080;\">#fit XGBoost model and display training and testing data at each round\n<\/span>model = xgb.train(data = xgb_train, max.depth = <span style=\"color: #008000;\">3<\/span> , watchlist=watchlist, nrounds = <span style=\"color: #008000;\">70<\/span> )\n\n[1] train-rmse:10.167523 test-rmse:10.839775 \n[2] train-rmse:7.521903 test-rmse:8.329679 \n[3] train-rmse:5.702393 test-rmse:6.691415 \n[4] train-rmse:4.463687 test-rmse:5.631310 \n[5] train-rmse:3.666278 test-rmse:4.878750 \n[6] train-rmse:3.159799 test-rmse:4.485698 \n[7] train-rmse:2.855133 test-rmse:4.230533 \n[8] train-rmse:2.603367 test-rmse:4.099881 \n[9] train-rmse:2.445718 test-rmse:4.084360 \n[10] train-rmse:2.327318 test-rmse:3.993562 \n[11] train-rmse:2.267629 test-rmse:3.944454 \n[12] train-rmse:2.189527 test-rmse:3.930808 \n[13] train-rmse:2.119130 test-rmse:3.865036 \n[14] train-rmse:2.086450 test-rmse:3.875088 \n[15] train-rmse:2.038356 test-rmse:3.881442 \n[16] train-rmse:2.010995 test-rmse:3.883322 \n[17] train-rmse:1.949505 test-rmse:3.844382 \n[18] train-rmse:1.911711 test-rmse:3.809830 \n[19] train-rmse:1.888488 test-rmse:3.809830 \n[20] train-rmse:1.832443 test-rmse:3.758502 \n[21] train-rmse:1.816150 test-rmse:3.770216 \n[22] train-rmse:1.801369 test-rmse:3.770474 \n[23] train-rmse:1.788891 test-rmse:3.766608 \n[24] train-rmse:1.751795 test-rmse:3.749583 \n[25] train-rmse:1.713306 test-rmse:3.720173 \n[26] train-rmse:1.672227 test-rmse:3.675086 \n[27] train-rmse:1.648323 test-rmse:3.675977 \n[28] train-rmse:1.609927 test-rmse:3.745338 \n[29] train-rmse:1.594891 test-rmse:3.756049 \n[30] train-rmse:1.578573 test-rmse:3.760104 \n[31] train-rmse:1.559810 test-rmse:3.727940 \n[32] train-rmse:1.547852 test-rmse:3.731702 \n[33] train-rmse:1.534589 test-rmse:3.729761 \n[34] train-rmse:1.520566 test-rmse:3.742681 \n[35] train-rmse:1.495155 test-rmse:3.732993 \n[36] train-rmse:1.467939 test-rmse:3.738329 \n[37] train-rmse:1.446343 test-rmse:3.713748 \n[38] train-rmse:1.435368 test-rmse:3.709469 \n[39] train-rmse:1.401356 test-rmse:3.710637 \n[40] train-rmse:1.390318 test-rmse:3.709461 \n[41] train-rmse:1.372635 test-rmse:3.708049 \n[42] train-rmse:1.367977 test-rmse:3.707429 \n[43] train-rmse:1.359531 test-rmse:3.711663 \n[44] train-rmse:1.335347 test-rmse:3.709101 \n[45] train-rmse:1.331750 test-rmse:3.712490 \n[46] train-rmse:1.313087 test-rmse:3.722981 \n[47] train-rmse:1.284392 test-rmse:3.712840 \n[48] train-rmse:1.257714 test-rmse:3.697482 \n[49] train-rmse:1.248218 test-rmse:3.700167 \n[50] train-rmse:1.243377 test-rmse:3.697914 \n[51] train-rmse:1.231956 test-rmse:3.695797 \n[52] train-rmse:1.219341 test-rmse:3.696277 \n[53] train-rmse:1.207413 test-rmse:3.691465 \n[54] train-rmse:1.197197 test-rmse:3.692108 \n[55] train-rmse:1.171748 test-rmse:3.683577 \n[56] train-rmse:1.156332 test-rmse:3.674458 \n[57] train-rmse:1.147686 test-rmse:3.686367 \n[58] train-rmse:1.143572 test-rmse:3.686375 \n[59] train-rmse:1.129780 test-rmse:3.679791 \n[60] train-rmse:1.111257 test-rmse:3.679022 \n[61] train-rmse:1.093541 test-rmse:3.699670 \n[62] train-rmse:1.083934 test-rmse:3.708187 \n[63] train-rmse:1.067109 test-rmse:3.712538 \n[64] train-rmse:1.053887 test-rmse:3.722480 \n[65] train-rmse:1.042127 test-rmse:3.720720 \n[66] train-rmse:1.031617 test-rmse:3.721224 \n[67] train-rmse:1.016274 test-rmse:3.699549 \n[68] train-rmse:1.008184 test-rmse:3.709522 \n[69] train-rmse:0.999220 test-rmse:3.708000 \n[70] train-rmse:0.985907 test-rmse:3.705192 \n<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Aus dem Ergebnis k\u00f6nnen wir erkennen, dass der minimale Test-RMSE bei <strong>56<\/strong> Runden erreicht wird. Ab diesem Punkt beginnt der Test-RMSE zu steigen, was darauf hindeutet, dass wir <a href=\"https:\/\/statorials.org\/de\/uberanpassung-des-maschinellen-lernens\/\" target=\"_blank\" rel=\"noopener noreferrer\">die Trainingsdaten \u00fcberangepasst haben<\/a> .<\/span><\/p>\n<p> <span style=\"color: #000000;\">Daher werden wir unser endg\u00fcltiges XGBoost-Modell auf 56 Runden einstellen:<\/span><\/p>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #000000;\"><span style=\"color: #008080;\">#define final model\n<\/span>final = xgboost(data = xgb_train, max.depth = <span style=\"color: #008000;\">3<\/span> , nrounds = <span style=\"color: #008000;\">56<\/span> , verbose = <span style=\"color: #008000;\">0<\/span> )<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Hinweis: Das Argument <strong>verbose=0<\/strong> weist R an, den Trainings- und Testfehler nicht f\u00fcr jede Runde anzuzeigen.<\/span><\/p>\n<h3> <span style=\"color: #000000;\"><strong>Schritt 5: Verwenden Sie das Modell, um Vorhersagen zu treffen<\/strong><\/span><\/h3>\n<p> <span style=\"color: #000000;\">Schlie\u00dflich k\u00f6nnen wir das endg\u00fcltige verbesserte Modell verwenden, um Vorhersagen \u00fcber den Medianwert von H\u00e4usern in Boston im Testsatz zu treffen.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Anschlie\u00dfend berechnen wir die folgenden Genauigkeitsmetriken f\u00fcr das Modell:<\/span><\/p>\n<ul>\n<li> <span style=\"color: #000000;\"><strong>MSE:<\/strong> mittlerer quadratischer Fehler<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>MAE:<\/strong> mittlerer absoluter Fehler<\/span><\/li>\n<li> <span style=\"color: #000000;\"><strong>RMSE:<\/strong> quadratischer Mittelwertfehler<\/span><\/li>\n<\/ul>\n<pre style=\"background-color: #ececec; font-size: 15px;\"> <strong><span style=\"color: #993300;\"><span style=\"color: #000000;\"><span style=\"color: #008080;\"><span style=\"color: #000000;\">mean((test_y - pred_y)^2)<\/span> #mse\n<span style=\"color: #000000;\">caret::MAE(test_y, pred_y)<\/span> #mae\n<span style=\"color: #000000;\">caret::RMSE(test_y, pred_y)<\/span> #rmse\n\n<\/span>[1] 13.50164\n[1] 2.409426\n[1] 3.674457<\/span><\/span><\/strong><\/pre>\n<p> <span style=\"color: #000000;\">Der mittlere quadratische Fehler betr\u00e4gt <strong>3,674457<\/strong> . Dies stellt die durchschnittliche Differenz zwischen der Vorhersage der mittleren Hauswerte und den tats\u00e4chlich im Testsatz beobachteten Hauswerten dar.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Wenn wir m\u00f6chten, k\u00f6nnen wir diesen RMSE mit anderen Modellen wie <a href=\"https:\/\/statorials.org\/de\/multiple-lineare-regression-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">der multiplen linearen Regression<\/a> , <a href=\"https:\/\/statorials.org\/de\/kammregression-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">der Ridge-Regression<\/a> , <a href=\"https:\/\/statorials.org\/de\/hauptkomponentenregression-in-r\/\" target=\"_blank\" rel=\"noopener noreferrer\">der Hauptkomponentenregression<\/a> usw. vergleichen. um herauszufinden, welches Modell die genauesten Vorhersagen liefert.<\/span><\/p>\n<p> <span style=\"color: #000000;\">Den vollst\u00e4ndigen R-Code, der in diesem Beispiel verwendet wird, finden Sie <a href=\"https:\/\/github.com\/Statorials\/R-Guides\/blob\/main\/xgboost.R\" target=\"_blank\" rel=\"noopener noreferrer\">hier<\/a> .<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Boosting ist eine Technik des maschinellen Lernens, die nachweislich Modelle mit hoher Vorhersagegenauigkeit erzeugt. Eine der gebr\u00e4uchlichsten M\u00f6glichkeiten, Boosting in der Praxis umzusetzen, ist die Verwendung von XGBoost , kurz f\u00fcr \u201eExtreme Gradient Boosting\u201c. Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Verwendung von XGBoost, um ein erweitertes Modell in R anzupassen. Schritt 1: Laden [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>XGBoost in R: ein Schritt-f\u00fcr-Schritt-Beispiel<\/title>\n<meta name=\"description\" content=\"Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Ausf\u00fchrung von XGBoost in R, einer beliebten Technik des maschinellen Lernens.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/statorials.org\/de\/xgboost-in-r\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"XGBoost in R: ein Schritt-f\u00fcr-Schritt-Beispiel\" \/>\n<meta property=\"og:description\" content=\"Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Ausf\u00fchrung von XGBoost in R, einer beliebten Technik des maschinellen Lernens.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/statorials.org\/de\/xgboost-in-r\/\" \/>\n<meta property=\"og:site_name\" content=\"Statorials\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-27T04:52:33+00:00\" \/>\n<meta name=\"author\" content=\"Dr. Benjamin Anderson\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Benjamin Anderson\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/statorials.org\/de\/xgboost-in-r\/\",\"url\":\"https:\/\/statorials.org\/de\/xgboost-in-r\/\",\"name\":\"XGBoost in R: ein Schritt-f\u00fcr-Schritt-Beispiel\",\"isPartOf\":{\"@id\":\"https:\/\/statorials.org\/de\/#website\"},\"datePublished\":\"2023-07-27T04:52:33+00:00\",\"dateModified\":\"2023-07-27T04:52:33+00:00\",\"author\":{\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\"},\"description\":\"Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Ausf\u00fchrung von XGBoost in R, einer beliebten Technik des maschinellen Lernens.\",\"breadcrumb\":{\"@id\":\"https:\/\/statorials.org\/de\/xgboost-in-r\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/statorials.org\/de\/xgboost-in-r\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/statorials.org\/de\/xgboost-in-r\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Heim\",\"item\":\"https:\/\/statorials.org\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Xgboost in r: ein schritt-f\u00fcr-schritt-beispiel\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/statorials.org\/de\/#website\",\"url\":\"https:\/\/statorials.org\/de\/\",\"name\":\"Statorials\",\"description\":\"Ihr Leitfaden f\u00fcr statistische Kompetenz !\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/statorials.org\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0\",\"name\":\"Dr. Benjamin Anderson\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"contentUrl\":\"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg\",\"caption\":\"Dr. Benjamin Anderson\"},\"description\":\"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen\",\"sameAs\":[\"https:\/\/statorials.org\/de\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"XGBoost in R: ein Schritt-f\u00fcr-Schritt-Beispiel","description":"Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Ausf\u00fchrung von XGBoost in R, einer beliebten Technik des maschinellen Lernens.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/statorials.org\/de\/xgboost-in-r\/","og_locale":"de_DE","og_type":"article","og_title":"XGBoost in R: ein Schritt-f\u00fcr-Schritt-Beispiel","og_description":"Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Ausf\u00fchrung von XGBoost in R, einer beliebten Technik des maschinellen Lernens.","og_url":"https:\/\/statorials.org\/de\/xgboost-in-r\/","og_site_name":"Statorials","article_published_time":"2023-07-27T04:52:33+00:00","author":"Dr. Benjamin Anderson","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Dr. Benjamin Anderson","Gesch\u00e4tzte Lesezeit":"4 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/statorials.org\/de\/xgboost-in-r\/","url":"https:\/\/statorials.org\/de\/xgboost-in-r\/","name":"XGBoost in R: ein Schritt-f\u00fcr-Schritt-Beispiel","isPartOf":{"@id":"https:\/\/statorials.org\/de\/#website"},"datePublished":"2023-07-27T04:52:33+00:00","dateModified":"2023-07-27T04:52:33+00:00","author":{"@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0"},"description":"Dieses Tutorial bietet ein schrittweises Beispiel f\u00fcr die Ausf\u00fchrung von XGBoost in R, einer beliebten Technik des maschinellen Lernens.","breadcrumb":{"@id":"https:\/\/statorials.org\/de\/xgboost-in-r\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/statorials.org\/de\/xgboost-in-r\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/statorials.org\/de\/xgboost-in-r\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Heim","item":"https:\/\/statorials.org\/de\/"},{"@type":"ListItem","position":2,"name":"Xgboost in r: ein schritt-f\u00fcr-schritt-beispiel"}]},{"@type":"WebSite","@id":"https:\/\/statorials.org\/de\/#website","url":"https:\/\/statorials.org\/de\/","name":"Statorials","description":"Ihr Leitfaden f\u00fcr statistische Kompetenz !","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/statorials.org\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Person","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/ec75c4d6365f2708f8a0ad3a42121aa0","name":"Dr. Benjamin Anderson","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/statorials.org\/de\/#\/schema\/person\/image\/","url":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","contentUrl":"https:\/\/statorials.org\/de\/wp-content\/uploads\/2023\/11\/Benjamin-Anderson-96x96.jpg","caption":"Dr. Benjamin Anderson"},"description":"Hallo, ich bin Benjamin, ein pensionierter Statistikprofessor, der sich zum engagierten Statorials-Lehrer entwickelt hat. Mit umfassender Erfahrung und Fachwissen auf dem Gebiet der Statistik bin ich bestrebt, mein Wissen zu teilen, um Studenten durch Statorials zu bef\u00e4higen. Mehr wissen","sameAs":["https:\/\/statorials.org\/de"]}]}},"yoast_meta":{"yoast_wpseo_title":"","yoast_wpseo_metadesc":"","yoast_wpseo_canonical":""},"_links":{"self":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1233"}],"collection":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/comments?post=1233"}],"version-history":[{"count":0,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/posts\/1233\/revisions"}],"wp:attachment":[{"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/media?parent=1233"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/categories?post=1233"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/statorials.org\/de\/wp-json\/wp\/v2\/tags?post=1233"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}