Limits of declustering methods for disentangling exogenous from endogenous events in time series with foreshocks, main shocks, and aftershocks
D. Sornette, and S. Utkin
Phys. Rev. E 79, 061110 (2009) [15 pages]


時系列中に含まれる、外的な要因部分(exogenous, background events)と
内的な要因部分(endogenous, triggered event, offspring of previous events)を分ける方法についてのすでにある手法の比較。
比較したのは以下の2つ、

  • Zhuang et al. の SDM (stochastic declustering method)
  • Marsan and Lengline のMISD (model-independent stochastic declustering) method

これらをETAS (epidemic-type aftershock)モデルを使って作成した人工的な時系列でテストしている。


ETASは地震で使われるモデルなので、時系列の生成過程に

  • Gutenberg-Richter law*1
  • Omori-Utsu law*2
  • productivity law*3

これらの項と、さらbackground events=外的要因の項から時系列を作成するらしい。


branching raitoというのは、本震がその後、どのくらいの別の地震に分岐していくか、すなわち、他のtriggering eventになるのか、ということで、これをベンチマークに比較するも、
これらのdecluster方法ではあまりいい結果が得られない。(そのため、論文のタイトルもlimits of declustering methodになっている。)
ただ、そのエラーの値は許容範囲だったんだろう、とも。


ちなみに、モデルのパラメータは5つあり、見積もりは、
最適化のNelder-Mead simplex methodで行っていて、
これはDavidson-Fletcher-Powellアルゴリズムよりは、いいらしい。


長い論文で、実データはほとんど扱っておらず、
内容は既存の手法の批判が大半で、なんだか読みづらい。
この論文をふまえて、よりいい方法の提案、もしくは
実際のデータに応用した論文を読んでみたいと思った。

*1:横軸にマグニチュード、縦軸に地震の回数をとったときに、それがベキ関数的な分布になる法則。時間スケールは関係ない。

*2:大きな地震がおこってからの余震の回数が、ベキ関数的に減少していく法則。時系列がベキ関数的に推移する例としてよく挙げられる。

*3:これは初めて聞いたが、大きなマグニチュード地震ほど、たくさんの余震を生成する法則。