Jak korzystać z funkcji optim w r (2 przykłady)
Możesz użyć funkcji optim w R do ogólnych optymalizacji.
Ta funkcja wykorzystuje następującą podstawową składnię:
optim(by, fn, data, ...)
Złoto:
- by : Początkowe wartości parametrów, które mają być optymalizowane
- fn : Funkcja minimalizująca lub maksymalizująca
- data : Nazwa obiektu w R, który zawiera dane
Poniższe przykłady pokazują, jak używać tej funkcji w następujących scenariuszach:
1. Znajdź współczynniki modelu regresji liniowej.
2. Znajdź współczynniki modelu regresji kwadratowej.
Chodźmy!
Przykład 1: Znajdowanie współczynników dla modelu regresji liniowej
Poniższy kod pokazuje, jak używać funkcji optim() do znajdowania współczynników modelu regresji liniowej poprzez minimalizację resztowej sumy kwadratów:
#create data frame
df <- data.frame(x=c(1, 3, 3, 5, 6, 7, 9, 12),
y=c(4, 5, 8, 6, 9, 10, 13, 17))
#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
with (data, sum((par[1] + par[2] * x - y)^2))
}
#find coefficients of linear regression model
optim(par=c(0, 1), fn=min_residuals, data=df)
$by
[1] 2.318592 1.162012
$value
[1] 11.15084
$counts
function gradient
79 NA
$convergence
[1] 0
$message
NULL
Korzystając z wartości zwróconych pod $par , możemy napisać następujący dopasowany model regresji liniowej:
y = 2,318 + 1,162x
Możemy sprawdzić, czy jest to poprawne, używając wbudowanej funkcji lm() w R do obliczenia współczynników regresji:
#find coefficients of linear regression model using lm() function
lm(y ~ x, data=df)
Call:
lm(formula = y ~ x, data = df)
Coefficients:
(Intercept) x
2,318 1,162
Te wartości współczynników odpowiadają tym, które obliczyliśmy za pomocą funkcji optim() .
Przykład 2: Znajdowanie współczynników dla modelu regresji kwadratowej
Poniższy kod pokazuje, jak używać funkcji optim() do znajdowania współczynników modelu regresji kwadratowej poprzez minimalizację resztowej sumy kwadratów:
#create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))
#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
with (data, sum((par[1] + par[2]*x + par[3]*x^2 - y)^2))
}
#find coefficients of quadratic regression model
optim(par=c(0, 0, 0), fn=min_residuals, data=df)
$by
[1] -18.261320 6.744531 -0.101201
$value
[1] 309.3412
$counts
function gradient
218 NA
$convergence
[1] 0
$message
NULL
Korzystając z wartości zwróconych pod $par , możemy napisać następujący dopasowany model regresji kwadratowej:
y = -18,261 + 6,744x – 0,101x 2
Możemy sprawdzić, czy jest to poprawne, korzystając z wbudowanej funkcji lm() w R:
#create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))
#create a new variable for x^2
df$x2 <- df$x^2
#fit quadratic regression model
quadraticModel <- lm(y ~ x + x2, data=df)
#display coefficients of quadratic regression model
summary(quadraticModel)$coef
Estimate Std. Error t value Pr(>|t|)
(Intercept) -18.2536400 6.185069026 -2.951243 1.839072e-02
x 6.7443581 0.485515334 13.891133 6.978849e-07
x2 -0.1011996 0.007460089 -13.565470 8.378822e-07
Te wartości współczynników odpowiadają tym, które obliczyliśmy za pomocą funkcji optim() .
Dodatkowe zasoby
Poniższe samouczki wyjaśniają, jak wykonywać inne typowe operacje w języku R:
Jak wykonać prostą regresję liniową w R
Jak wykonać wielokrotną regresję liniową w R
Jak interpretować wynik regresji w R