上級編 6.  Libor Market Model 

6.6   モンテカルロシミュレーション

6.6.7   リスク感応度(Greeks)の計測

6.6.7.4   Likelihood Ratio Method
6.6.7.4.1   Likelihood Ratio Methodとは

デリバティブズのリスク感応度を計算する3番目の方法は、サンプル経路ごとに、確率密度関数を微分して求める方法です。Glasserman 本では、これを Likelihood Ratio Method(以下“LRM”)と呼んでいます。なぜ、Likelihood Ratio Method と呼ばれているかは、説明の中で明らかになります。前のセクションで説明した、Payoff 関数を微分する方法(Path-Wise Derivative ”PWD”)は、Digital OptionやBarrier Optionのように、Payoff関数が非連続な関数ではうまくいきませんでした。しかしこのような商品でも、確率変数の確率密度関数が解析的に求まっていれば、感応度をうまく求める事ができます。 

 

まず、LRM の考え方について説明します。そもそも、デリバティブズ価格は、Payoff 関数(のニュメレールとの相対価格)の期待値に相当しますが、これを、確率密度関数(下記式のg(x))を使って、積分形で表現すると下記式のようになります。 

\[ \frac {DerivPrice(t_0)}{Numeriare(t_0)} = E \left[\frac {Payoff(T_M,x)}{Numeraire(T_M),x}\right] =\int \frac {Payoff(T_M,x)}{Numeraire(T_M,x)}~g(x)~dx \]

(注:上記の期待値演算は、ニュメレールを基準とした同値マルチンゲール測度を使って行います。従って、確率密度関数 \(g(x)\) も、その同値マルチンゲール測度による密度関数になります。) 

LRM は、\(x\) の確率密度関数が、パラメータ θ を持つ関数として解析的に求まる場合、すなわち、\(g(x)≡g(x,θ)\) と表現できる場合、これを θ で微分した後に右辺の積分を行う事で、θ に対する感応度を求めようとするものです。すなわち、 

\[ \frac {∂}{∂θ} E\left[\frac {Payoff(T,x)}{Numeraire(T,x)} \right] =\int_Ω \frac {Payoff(T,x)}{Numeraire(T,x)} \frac {∂g(x,θ)}{∂θ} dx \tag{6.191} \]

さて、前のセクションで説明した PWD 法では、パラメータ θ を Payoff 関数やニュメレール関数のパラメータと看做し、それを θ で微分して感応度を求めていました。一方、LRM では θ を確率密度関数のパラメータと看做し、確率密度関数を θ で微分します。この考え方の違いは、確率変数 x をどう捉えるかによります。例えば、Caplet の Payoff 関数 \((L_M(T_M)-K)^+\) にある対象資産価格 \(L_M(T_M)\) について考えてみます。\(L_M(T_M)\) は Black-Scholes モデルを解けば下記式のように求まるのでした。 

\[ L_M(T_M )=L_M(0)~ e^{\left(r- \frac 1 2 σ^2\right)T_M+σ~\sqrt{T_M}~z},~~~~~ z ~ \sim ~ \mathscr {N}(0,1) \]

この式を、確率変数 z (ここでは標準正規乱数)及び パラメータ \( L_M(0),~σ\) を説明変数とする関数と考えれば、(すなわち \(L_M(T_M)≡L_M(T_M,L_M(0),σ,z)\))、\(L_M(T_M)\) は、外生的に与えられた z の関数と看做す事ができます。すると z の確率密度関数(=標準正規確率密度関数)ϕ(z) を使って、6.191 式を下記のように表現できます。式にある通り、説明変数であるzが積分変数となり、積分の範囲は z の取りうる全領域になります。  

\[ E \left[ \frac {Payoff(T_M,X)}{Numeraire(T_M)} \right] =\int_{Ω_z} \frac {Payoff \left[T_M,L_M (T_M,L_M (0),σ,z),K \right]}{Numeraire \left[T_M,L_M (T_M,L_M (0),σ,z)\right]}~\phi(z)~dz \]

すると、右辺の Payoff 関数を \(L_M(0)\)で微分して、下記式のように感応度(デルタ)を導出できます。 

\[ \begin{align} \frac {∂}{∂L_M(0)} E \left[ \frac {Payoff(T_M,X)}{Numeraire(T_M )} \right] & =E \left[ \frac {∂}{∂L_M(0)}~ \left(\frac {Payoff[T_M,L_M (T_M,L_M (0),σ,z),K]}{Numeraire[T_M,L_M (T_M,L_M (0),σ,z)] }\right) \right] \\ & =\int_{Ω_z} \frac {∂}{∂L_M (0)} \left( \frac {Payoff[T_M,L_M (T_M,L_M (0),σ,z),K]}{Numeraire[T_M,L_M (T_M,L_M (0),σ,z)]} \right)~ \phi(z)dz \end{align} \]

これが、PWD における確率変数の捉え方です。 

一方、\(L_M(T_M)=L_M(0) e^{\left(r- \frac 1 2 σ^2\right)T_M+σ\sqrt{T_M}~z}\) の式から、 \(L_M(T_M)\) 自体の確率密度関数も解析的に求まります。すなわち \(L_M (T_M)\) を対数変換すれば、平均が \(\ln L_M(0)+\left(r-\frac 1 2 σ^2 \right)T_M\)、分散が \(σ^2~T_M\) の正規分布となり、そこから \(\ln L_M(T_M)\) の確率密度関数が解析的に求まります。すると、今度は、\(\ln L_M(T_M)\) を積分変数として期待値演算ができます。その場合、パラメータは確率密度関数に含まれるので、下記式のように、確率密度関数を微分して感応度を求める事が出来ます。(但し微分と積分の順序交換が成り立つ場合のみ。) 

\[ \frac {∂}{∂θ} E\left[\frac {Payoff(T,X)}{Numeraire(T)} \right] =\int_{Ω_{\ln L_M}} \frac {Payoff(T,L_M(T_M))}{Numeraire(T,L(T_M))} \frac {∂g(L_M(T_M),L_M(0),σ)}{∂L_M(0)} d(\ln L_M(T_M)) \]

ただ、このままの形では、MCS の中で、どうやって右辺の積分を求めるのかわかりません。そこで 上式の右辺の被積分関数に \(\frac {g(X,L_M(0),σ)}{g(X,L_M(0),σ)}\) を掛けて下記のように書き換えます。 

\[ \small { \int_{Ω_{\ln L_M}} \frac {Payoff(T,L_M(T_M))}{Numeraire(T,L_M(T_M))}~ \frac {∂g(L_M(T_M),L_M(0),σ)/∂L_M (0)}{g(L_M(T_M),L_M(0),σ)}~ g(L_M(T_M),L_M (0),σ) d(\ln L_M(T_M)) } \tag{6.192} \]

上の式にある \(\frac {∂g(L_M(T_M),L_M(0),σ)/∂L_M (0)}{g(L_M(T_M),L_M(0),σ)}\) は、確率密度 \(g(L_M (T_M ),L_M (0)+ϵ,σ)\) を確率密度 \(g(X,L_M (0),σ)\) へ測度変換した場合のRadon Nikodym DerivativeあるいはLikelihood Ratioに相当する \(\frac {g(X,L_M (0)+ϵ,σ)}{g(X,L_M (0),σ)}\) を、ε で微分した値になります。そこから、Likelihood Ratio Method(“LRM”)と呼ばれています。あるいは、それを Score と呼んでいる文献もあります。サンプルごとに計算される \(\frac {Payoff}{Numeraire}×\frac {g'(L_M(T_M),L_M (0),σ)}{g(L_M(T_M),L_M(0),σ)}\) は、パラメータに対する感応度の不偏推定量になり、そのサンプル平均をとれば、感応度の推定値になります。 

そもそも確率密度関数が、解析的に求まっているのであれば、MCS を使わなくとも、数値積分を使ってより高速な計算が可能で、また、MCS を使わざるを得ないようなモデルでは、確率密度関数が解析的に求まるケースは稀です。するとLRM が使えるケースはあまり多く無いかも知れません。ただ、LMM のように、本来、確率密度関数を解析的に求める事が出来ないモデルでも、それを近似的に導出する事は可能で、このような場合に LRM が使われる事が想定されます。以下に例を使ってこのテクニックを解説したいと思います。 

 

目次

Page Top に戻る

// // //