Jak korzystać z funkcji optim w r (2 przykłady)


Możesz użyć funkcji optim w R do ogólnych optymalizacji.

Ta funkcja wykorzystuje następującą podstawową składnię:

 optim(by, fn, data, ...)

Złoto:

  • by : Początkowe wartości parametrów, które mają być optymalizowane
  • fn : Funkcja minimalizująca lub maksymalizująca
  • data : Nazwa obiektu w R, który zawiera dane

Poniższe przykłady pokazują, jak używać tej funkcji w następujących scenariuszach:

1. Znajdź współczynniki modelu regresji liniowej.

2. Znajdź współczynniki modelu regresji kwadratowej.

Chodźmy!

Przykład 1: Znajdowanie współczynników dla modelu regresji liniowej

Poniższy kod pokazuje, jak używać funkcji optim() do znajdowania współczynników modelu regresji liniowej poprzez minimalizację resztowej sumy kwadratów:

 #create data frame
df <- data.frame(x=c(1, 3, 3, 5, 6, 7, 9, 12),
                 y=c(4, 5, 8, 6, 9, 10, 13, 17))

#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
                   with (data, sum((par[1] + par[2] * x - y)^2))
}

#find coefficients of linear regression model
optim(par=c(0, 1), fn=min_residuals, data=df)

$by
[1] 2.318592 1.162012

$value
[1] 11.15084

$counts
function gradient 
      79 NA 

$convergence
[1] 0

$message
NULL

Korzystając z wartości zwróconych pod $par , możemy napisać następujący dopasowany model regresji liniowej:

y = 2,318 + 1,162x

Możemy sprawdzić, czy jest to poprawne, używając wbudowanej funkcji lm() w R do obliczenia współczynników regresji:

 #find coefficients of linear regression model using lm() function
lm(y ~ x, data=df)

Call:
lm(formula = y ~ x, data = df)

Coefficients:
(Intercept) x  
      2,318 1,162

Te wartości współczynników odpowiadają tym, które obliczyliśmy za pomocą funkcji optim() .

Przykład 2: Znajdowanie współczynników dla modelu regresji kwadratowej

Poniższy kod pokazuje, jak używać funkcji optim() do znajdowania współczynników modelu regresji kwadratowej poprzez minimalizację resztowej sumy kwadratów:

 #create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
                 y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))

#define function to minimize residual sum of squares
min_residuals <- function (data, par) {
                   with (data, sum((par[1] + par[2]*x + par[3]*x^2 - y)^2))
}

#find coefficients of quadratic regression model
optim(par=c(0, 0, 0), fn=min_residuals, data=df)

$by
[1] -18.261320 6.744531 -0.101201

$value
[1] 309.3412

$counts
function gradient 
     218 NA 

$convergence
[1] 0

$message
NULL

Korzystając z wartości zwróconych pod $par , możemy napisać następujący dopasowany model regresji kwadratowej:

y = -18,261 + 6,744x – 0,101x 2

Możemy sprawdzić, czy jest to poprawne, korzystając z wbudowanej funkcji lm() w R:

 #create data frame
df <- data. frame (x=c(6, 9, 12, 14, 30, 35, 40, 47, 51, 55, 60),
                 y=c(14, 28, 50, 70, 89, 94, 90, 75, 59, 44, 27))

#create a new variable for x^2
df$x2 <- df$x^2

#fit quadratic regression model
quadraticModel <- lm(y ~ x + x2, data=df)

#display coefficients of quadratic regression model
summary(quadraticModel)$coef

               Estimate Std. Error t value Pr(>|t|)
(Intercept) -18.2536400 6.185069026 -2.951243 1.839072e-02
x 6.7443581 0.485515334 13.891133 6.978849e-07
x2 -0.1011996 0.007460089 -13.565470 8.378822e-07

Te wartości współczynników odpowiadają tym, które obliczyliśmy za pomocą funkcji optim() .

Dodatkowe zasoby

Poniższe samouczki wyjaśniają, jak wykonywać inne typowe operacje w języku R:

Jak wykonać prostą regresję liniową w R
Jak wykonać wielokrotną regresję liniową w R
Jak interpretować wynik regresji w R

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *