Garch

GARCH 模型中均值方程為零的優缺點

  • October 20, 2019

我安裝了一個標準的 GARCH 模型。均值方程沒有 AR 或 MA 項。變異數方程中的所有係數在 5% 時均顯著。然而,均值方程的常數項為零,在 5% 時並不顯著。我的問題是:如果我只對預測波動性感興趣,我可以使用這個模型嗎?

當您對日誌返回建模時 $ (Y_t) $ 經過 $ Y_t=\varepsilon_t $ 在哪裡 $ \varepsilon_t|\mathcal{F}{t-1}\sim N(0,\sigma^2_t) $ 和一個標準的 GARCH( $ p,q $ ) 模型與$$ \sigma_t^2=\omega+\sum{i=1}^p \alpha_{i}\varepsilon^2_{t-i}+\sum_{i=1}^q \beta_i \sigma^2_{t-i}, $$在哪裡 $ \omega>0, \alpha_i,\beta_i\geq0 $ . 該模型確實假設對數返回的平均值為零。現在,自從 $ Y_t=\varepsilon_t $ ,您可以使用平方收益 $ Y_t^2 $ 在上面的 GARCH 方程中 $ \varepsilon_t^2 $ 並預測條件變異數。參數 $ \omega,\alpha_i $ , $ \beta_i $ 通過最大化相應的概似函式來找到。

您可以引入任何平均函式並通過以下方式對日誌返回建模 $ Y_t=\mathbb{E}[Y_t|\mathcal{F}{t-1}]+\varepsilon_t $ , 又在哪裡 $ \varepsilon_t|\mathcal{F}{t-1}\sim N(0,\sigma^2_t) $ . 在這裡,您可以使用 ARMA 模型 $ \mathbb{E}[Y_t|\mathcal{F}_{t-1}] $ 並且可能會發現一些滯後很重要。這產生了 ARMA-GARCH 模型。許多編碼語言(例如 Matlab)允許您通過幾行程式碼來估計係數。

作為 ARCH 部分 $ \sigma_t^2 $ 計算基於 $ \varepsilon_t=Y_t-\mathbb{E}[Y_t|\mathcal{F}_{t-1}] $ ,條件均值函式對於預測變異數確實很重要。所以,你應該確保當你計算 $ \varepsilon^2_t $ 你減去了相應的平均值。

**1. 預測準確性。**假設條件均值等於 0 可能是有益的,也可能是有害的,具體取決於它與現實的差距。這是偏差-變異數權衡的觀點。

  • 均方預測誤差可以加法分解為平方偏差、變異數和不可約誤差。*
  • 與條件均值具有其他形式(例如 ARMA)的模型相比,條件均值限制為零的模型是一種更簡單的模型。
  • 更簡單的模型將具有更高的偏差(因為它忽略了很可能是非零的真實條件均值)但變異數更低(因為不需要估計條件均值模型的係數)。
  • 更豐富的模型(對條件均值有一些非零規範)將具有更低的偏差(條件均值的近似值不那麼粗糙),但變異數更高(因為需要估計條件均值模型的係數)。
  • 如果從更簡單的模型移動到更豐富的模型時平方偏差的減少超過了變異數的增加,那麼您可能會期望從更豐富的模型中獲得更準確的預測。否則,更簡單的模型可能會更好。

這種一般邏輯不僅適用於平方損失下的點預測,而且更普遍。因此,如果您對建模和預測波動性感興趣,您仍然面臨權衡取捨。

**2. 計算複雜度。**具有非零條件均值的模型通常需要更長的時間來估計(除非條件均值是常數;那麼差異應該是微不足道的)。


*考慮一個數據生成過程 $$ Y = f(X) + \varepsilon $$ 和 $ \mathbb{E}(\varepsilon)=0 $ 和 $ \text{Var}(\varepsilon)=\sigma^2_{\varepsilon} $ . 點的預期平方預測誤差 $ x_0 $ 可以通過以下方式分解: $$ \begin{aligned} \text{Err}(x_0) &= \mathbb{E}\left( [ y - \hat f(x_0) ]^2 | X = x_0 \right) \ &= \dots \ &= \sigma^2_{\varepsilon} + \text{Bias}^2(\hat f(x_0)) + \text{Var}(\hat f(x_0)) \ &= \text{Irreducible error} + \text{Bias}^2 + \text{Variance} .\ \end{aligned} $$ 見 Hastie 等人。“統計學習的要素”(2009 年)p。223,公式 7.9。

引用自:https://quant.stackexchange.com/questions/48868