波動率

GARCH(1,1)參數估計優化方法

  • June 26, 2021

在估計 GARCH(1,1) 模型時, $$ \sigma_{t+1}^2 = \omega+\alpha \epsilon_t^2+\beta\sigma_t^2 $$ 通常是參數元組 $ (\omega,\alpha,\beta) $ 由準最大概似估計。然而,似乎很難找到穩定的最優參數估計。是否有明確處理優化問題的參考資料?

假設我們有一個時間序列 $ \left{\epsilon_t\right}{t=1}^T $ 每日對數回報,我們要估計模型: $$ \begin{align} \epsilon_t&=\sigma_tu_t ,\quad u_t \overset{iid}{\sim}{\cal N}(0,1)\ \sigma_t^2&=\alpha_0+\alpha_1\epsilon{t-1}^2+\beta_1\sigma_{t-1}^2 \end{align} $$ 如果我理解你的想法正確,那麼你想估計回歸: $$ \begin{align} \epsilon_t^2=\alpha_0+(\alpha_1+\beta_1)\epsilon_{t-1}^2+\eta_t \end{align} $$ 但是,我不明白你是怎麼想出這個的。在我看來,你從條件變異數方程開始: $$ \begin{equation} \sigma_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2 \end{equation} $$ 現在添加 $ w_t=\epsilon_t^2-\sigma_t^2 $ 兩側。您獲得: $$ \begin{align} &\sigma_t^2+w_t=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2+w_t \ \leftrightarrow &\sigma_t^2+\epsilon_t^2-\sigma_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2+w_t\ \leftrightarrow &\epsilon_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2+ w_t \ \end{align} $$ 請注意 $ w_{t-1}=\epsilon_{t-1}^2-\sigma_{t-1}^2 $ 因此 $ \sigma_{t-1}^2=\epsilon_{t-1}^2-w_{t-1} $ . 您獲得: $$ \begin{align} \epsilon_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1(\epsilon_{t-1}^2-w_{t-1})+ w_t \ \leftrightarrow \epsilon_t^2=\alpha_0+(\alpha_1+\beta_1)\epsilon_{t-1}^2 -\beta_1w_{t-1} +w_t \end{align} $$ 如果 $ E(\epsilon_t^4)<\infty $ $ \left{w_t \right} $ 具有有限變異數並且是弱白雜訊,因此 GARCH(1,1) 模型對平方收益具有 ARMA(1,1) 表示。如果我沒記錯的話,ARMA(1,1) 的 OLS 是不一致的,而且這個模型的 ML 似乎也很困難。即使我們假設 $ u_t \overset{iid}{\sim}{\cal N}(0,1) $ 什麼是條件分佈 $ w_t $ ? 我不知道可能性的分析形式是什麼。

似乎可以以這種方式估計模型,但老實說,我以前從未見過這種方法,我感覺結果會很糟糕。也許嘗試一下,然後通過 ML 將結果與標準方法進行比較?

基本上,我的方法是:

  1. 選擇初始值 $ \theta_0=(\alpha_0,\alpha_1,\beta_1)’ $ .
  2. 選擇初始值 $ \epsilon_0^2 $ 和 $ \sigma_0^2 $ , $ \epsilon_0^2=\sigma_0^2=\frac{1}{T}\sum_{t=1}^T\epsilon_t^2 $ 是自然的選擇。
  3. 對於給定的參數向量 $ \theta_i $ 計算 $ \sigma_t^2 $ .
  4. 使用結果計算對數條件密度 $ {\cal l}_t(\theta_i)=-\frac{1}{2}\ln(\sigma_t^2)-\frac{1}{2}\frac{\epsilon_t^2}{\sigma_t^2} $
  5. 使用一些優化方法,我認為BHHH經常使用。 $$ \theta_{i+1}=\theta_i+\lambda\left[\sum_{t=1}^T\frac{\partial{\cal l}_t(\theta_i)}{\partial \theta_i}\frac{\partial{\cal l}t(\theta_i)}{\partial \theta_i’}\right]^{-1}\sum{t=1}^T\frac{\partial{\cal l}_t(\theta_i)}{\partial \theta_i} $$
  6. 停止如果 $ \vert\vert \theta_{i+1}-\theta_i\vert\vert<\epsilon $ , 例如 $ \epsilon=10e^{-4} $ . 如果沒有返回3。

但是,我不是優化專家,很高興聽到其他意見。

執行以下操作是否有意義?

讓估計 $ \sigma_t^2 $ 是 $ \epsilon_t^2 $ 和 $$ \epsilon_{t+1}^2 = \omega+(\alpha+\beta)\epsilon_t^2+u $$ 在哪裡 $ u $ 是殘差。我們將線性回歸應用於上述 AR 模型並獲得 $ \omega $ 和 $ \alpha+\beta $ . 我們只需要估計一個變數,要麼 $ \alpha $ 或者 $ \beta $ . 我們通過最大化準最大概似來做到這一點。這一次,它是一個 $ 1 $ 與 $ 3 $ 尺寸問題,這會容易得多。

引用自:https://quant.stackexchange.com/questions/65704