Як використовувати функцію optim у r (2 приклади)


Ви можете використовувати функцію optim у R для загальної оптимізації.

Ця функція використовує такий базовий синтаксис:

 optim(by, fn, data, ...)

золото:

  • by : Початкові значення параметрів, які будуть оптимізовані
  • fn : функція для мінімізації або розгортання
  • data : ім’я об’єкта в R, який містить дані

У наведених нижче прикладах показано, як використовувати цю функцію в таких сценаріях:

1. Знайти коефіцієнти моделі лінійної регресії.

2. Знайти коефіцієнти моделі квадратичної регресії.

Ходімо!

Приклад 1: визначення коефіцієнтів для моделі лінійної регресії

У наступному коді показано, як використовувати функцію optim() для знаходження коефіцієнтів моделі лінійної регресії шляхом мінімізації залишкової суми квадратів:

 #create data frame
df <- data.frame(x=c(1, 3, 3, 5, 6, 7, 9, 12),
                 y=c(4, 5, 8, 6, 9, 10, 13, 17))

#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
                   with (data, sum((par[1] + par[2] * x - y)^2))
}

#find coefficients of linear regression model
optim(par=c(0, 1), fn=min_residuals, data=df)

$by
[1] 2.318592 1.162012

$value
[1] 11.15084

$counts
function gradient 
      79 NA 

$convergence
[1] 0

$message
NULL

Використовуючи значення, повернені в $par , ми можемо написати наступну модель лінійної регресії:

y = 2,318 + 1,162x

Ми можемо переконатися, що це правильно, використовуючи вбудовану функцію lm() у R для обчислення коефіцієнтів регресії:

 #find coefficients of linear regression model using lm() function
lm(y ~ x, data=df)

Call:
lm(formula = y ~ x, data = df)

Coefficients:
(Intercept) x  
      2,318 1,162

Ці значення коефіцієнтів відповідають тим, які ми розрахували за допомогою функції optim() .

Приклад 2: визначення коефіцієнтів для моделі квадратичної регресії

У наступному коді показано, як використовувати функцію optim() для знаходження коефіцієнтів моделі квадратичної регресії шляхом мінімізації залишкової суми квадратів:

 #create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
                 y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))

#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
                   with (data, sum((par[1] + par[2]*x + par[3]*x^2 - y)^2))
}

#find coefficients of quadratic regression model
optim(par=c(0, 0, 0), fn=min_residuals, data=df)

$by
[1] -18.261320 6.744531 -0.101201

$value
[1] 309.3412

$counts
function gradient 
     218 NA 

$convergence
[1] 0

$message
NULL

Використовуючи значення, повернені в $par , ми можемо написати таку підігнану модель квадратичної регресії:

y = -18,261 + 6,744x – 0,101x 2

Ми можемо перевірити, що це правильно, використовуючи вбудовану функцію lm() у R:

 #create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
                 y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))

#create a new variable for x^2
df$x2 <- df$x^2

#fit quadratic regression model
quadraticModel <- lm(y ~ x + x2, data=df)

#display coefficients of quadratic regression model
summary(quadraticModel)$coef

               Estimate Std. Error t value Pr(>|t|)
(Intercept) -18.2536400 6.185069026 -2.951243 1.839072e-02
x 6.7443581 0.485515334 13.891133 6.978849e-07
x2 -0.1011996 0.007460089 -13.565470 8.378822e-07

Ці значення коефіцієнтів відповідають тим, які ми розрахували за допомогою функції optim() .

Додаткові ресурси

У наступних посібниках пояснюється, як виконувати інші типові операції в R:

Як виконати просту лінійну регресію в R
Як виконати множинну лінійну регресію в R
Як інтерпретувати результат регресії в R

Додати коментар

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *