Як використовувати функцію optim у r (2 приклади)
Ви можете використовувати функцію optim у R для загальної оптимізації.
Ця функція використовує такий базовий синтаксис:
optim(by, fn, data, ...)
золото:
- by : Початкові значення параметрів, які будуть оптимізовані
- fn : функція для мінімізації або розгортання
- data : ім’я об’єкта в R, який містить дані
У наведених нижче прикладах показано, як використовувати цю функцію в таких сценаріях:
1. Знайти коефіцієнти моделі лінійної регресії.
2. Знайти коефіцієнти моделі квадратичної регресії.
Ходімо!
Приклад 1: визначення коефіцієнтів для моделі лінійної регресії
У наступному коді показано, як використовувати функцію optim() для знаходження коефіцієнтів моделі лінійної регресії шляхом мінімізації залишкової суми квадратів:
#create data frame
df <- data.frame(x=c(1, 3, 3, 5, 6, 7, 9, 12),
y=c(4, 5, 8, 6, 9, 10, 13, 17))
#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
with (data, sum((par[1] + par[2] * x - y)^2))
}
#find coefficients of linear regression model
optim(par=c(0, 1), fn=min_residuals, data=df)
$by
[1] 2.318592 1.162012
$value
[1] 11.15084
$counts
function gradient
79 NA
$convergence
[1] 0
$message
NULL
Використовуючи значення, повернені в $par , ми можемо написати наступну модель лінійної регресії:
y = 2,318 + 1,162x
Ми можемо переконатися, що це правильно, використовуючи вбудовану функцію lm() у R для обчислення коефіцієнтів регресії:
#find coefficients of linear regression model using lm() function
lm(y ~ x, data=df)
Call:
lm(formula = y ~ x, data = df)
Coefficients:
(Intercept) x
2,318 1,162
Ці значення коефіцієнтів відповідають тим, які ми розрахували за допомогою функції optim() .
Приклад 2: визначення коефіцієнтів для моделі квадратичної регресії
У наступному коді показано, як використовувати функцію optim() для знаходження коефіцієнтів моделі квадратичної регресії шляхом мінімізації залишкової суми квадратів:
#create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))
#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
with (data, sum((par[1] + par[2]*x + par[3]*x^2 - y)^2))
}
#find coefficients of quadratic regression model
optim(par=c(0, 0, 0), fn=min_residuals, data=df)
$by
[1] -18.261320 6.744531 -0.101201
$value
[1] 309.3412
$counts
function gradient
218 NA
$convergence
[1] 0
$message
NULL
Використовуючи значення, повернені в $par , ми можемо написати таку підігнану модель квадратичної регресії:
y = -18,261 + 6,744x – 0,101x 2
Ми можемо перевірити, що це правильно, використовуючи вбудовану функцію lm() у R:
#create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))
#create a new variable for x^2
df$x2 <- df$x^2
#fit quadratic regression model
quadraticModel <- lm(y ~ x + x2, data=df)
#display coefficients of quadratic regression model
summary(quadraticModel)$coef
Estimate Std. Error t value Pr(>|t|)
(Intercept) -18.2536400 6.185069026 -2.951243 1.839072e-02
x 6.7443581 0.485515334 13.891133 6.978849e-07
x2 -0.1011996 0.007460089 -13.565470 8.378822e-07
Ці значення коефіцієнтів відповідають тим, які ми розрахували за допомогою функції optim() .
Додаткові ресурси
У наступних посібниках пояснюється, як виконувати інші типові операції в R:
Як виконати просту лінійну регресію в R
Як виконати множинну лінійну регресію в R
Як інтерпретувати результат регресії в R