研究

具有非同步 alpha 信號的最佳再平衡策略

  • November 20, 2011

你想建構一個最優的投資組合。

假設您有一個 alpha 信號,該信號在某個時期(例如每季度)到達。阿爾法信號預測算術回報提前一年。您有每天更新的風險估計。

您的效用函式最大化的優化器是季度 alpha 信號的預期回報(與置信水平相關),最小化每日風險模型的風險,並最小化交易成本。在第 1 天,確定最佳單期策略權重很容易——只需打開優化器的曲柄即可。

但是,假設一周過去了,您有機會重新平衡。證券價格的變化部分反映了噪音,部分反映了新資訊。在下一個季度的 alpha 信號之前,您的 alpha 預測會越來越陳舊。

問題 - 最佳的最佳再平衡程序是什麼?

有幾種方法,目前尚不清楚哪種方法最好 - alpha 信號的貝氏更新,隨著 alpha 信號越來越陳舊而向先驗收縮,或其他一些經驗法則重新平衡規則。(這裡有必要進行某種形式的簡化,因為真正的最佳再平衡將是一個實際上無法解決的多周期動態規劃問題。)

以下是一些方法:

  1. 什麼都不做——忽略重新平衡的機會。缺點:證券可能已經達到了有效的價格目標,或者投資組合可能已經偏離最優(即每單位風險的邊際回報不再平衡)。
  2. 幼稚案例 - 在下一個重新平衡期間,使用期初 alpha 預測和新的風險估計進行優化。缺點是隨著時間的推移,我們對阿爾法預測的信心降低。想像一下,一個已經扣押了嚴重負面消息的證券——如果您使用期初 alpha 信號,您的優化器將載入該證券。這種方法將所有價格變化視為非資訊性的。
  3. 在每個重新平衡期間(直到下一個季度刷新)降低 alpha 信號的可信度,並允許優化器縮小到先驗值,例如最小變異數投資組合。
  4. 降低 alpha 信號的可信度並重新校準 alpha 信號以考慮證券價格的變化。例如,如果證券的原始 alpha 預測為 8% 年化且頭寸已為 +10%,那麼您重新校準的預測將為 -2%(空頭)。缺點:Alpha 信號從未如此精確。它們在對機會進行排名時最有效,這種方法可能會導致您在 alpha 信號排序的基礎上做空最強大的候選人。
  5. 以某種方式將價格變化視為資訊,並在觀察實際表現後使用貝氏更新來調整您的 alpha 預測。缺點:這裡有很多人揮手致意。
  6. 不要在後續的重新平衡中使用優化器——只需使用您的風險模型。具體來說,賣出邊際風險貢獻較高的證券,買入邊際風險貢獻低的證券。

最終,這似乎是一個需要檢驗的經驗問題。最好的答案是引用關於非同步最優再平衡的實證研究(如果存在的話)。

謝謝!

我沒有完全聽懂你的問題。您是在詢問存在 t 成本和不斷變化的 alpha 信號的情況下的最佳再平衡頻率嗎?

通常,您會將 t 成本估計作為優化中的另一個術語(以約束權重)。這限制了交易的“侵略性”。換句話說,您可以將問題視為 (1) 改變您的再平衡頻率,因為交易過於頻繁會導致過多的 t 成本;或 (2) 改變您的交易激進度,其中激進度僅表示您向不受約束的投資組合交易的程度. 它們具有相同的效果,只是不太頻繁地嚴格重新平衡具有使您對終點敏感的優點/缺點(例如,如果您在月末重新平衡,那麼您的結果將對該特定時間的行為敏感)。

因此,我建議您考慮改為採用更高頻率的再平衡,但在投資組合優化中添加一個 t 成本項。這很棘手,但您可以查看這些最近的論文:

  1. Garleanu 和 Pedersen “具有可預測回報和交易成本的動態交易”,2009 年。本文通過假設二次 t 成本為優化提供了一個封閉形式的解決方案。本文的一個主要功能是額外關注策略的 alpha 衰減,以及具有不同 alpha 衰減範圍的策略的最佳組合。
  2. Skaf 和 Boyd “具有約束和交易成本的多期投資組合優化”,2009 年。這與您將其描述為多周期優化的問題更直接相關,除了它們添加了額外的約束並在沒有動態規劃的情況下將其解決為凸優化問題。

我認為這整個聽起來很複雜的問題可以硬塞到傳統的均值變異數優化中。但是,有多個嵌入式子問題,每個都值得特別關注(這就是為什麼我建議您將問題進一步分解為多個較小的問題)。

您的預期回報可以而且應該盡可能頻繁/可行地更新。如果信號本身只能按季度觀察到,則應使用信號的屬性或與更高頻率變數的關係來預測信號。順便說一句,當新信號到來時,天真地做你會得到跳躍。有多種方法可以解決這個問題,值得單獨提出一個問題。

應根據風險和預期收益的變化幅度以及交易成本來優化再平衡頻率。這應該包括在其他低頻策略中頻繁重新平衡的“麻煩成本”。本質上,這是典型的效用最大化,其中再平衡具有固定的前期貨幣成本和預期風險/回報方面的效用收益。改變信號的可信度可以直接納入效用函式(這個效用函式的正確設計是另一個有價值的子問題)。任何其他方法都是臨時近似或經驗法則。

引用自:https://quant.stackexchange.com/questions/2029