退屈な企業に大きく賭ける (3)

退屈な企業に大きく賭ける (1)で低ボラティリティの株式にレバレッジをかける戦略を導入し、その危険性を鑑みて、直接の借金によるレバレッジではなくCall Optionを使うことを提案した。市場で売買されているCall Optionのうち何をどれだけ買うのが適切か知るためには、原資産がもたらすリターンの確率分布が必要であり、その実データによる推定例を退屈な企業に大きく賭ける (2)で取り上げた。原資産のリターン確率分布が得られたところで、今回は現金+Call Optionsのポジション量の調節を行う。

データと分析の範囲

オプションの市場価格は一応webサイトから取得できる。S&P500 ETFであるSPYのオプション価格はたとえばYahoo Financeならこちらで見られる。しかし公開されている価格データには誤った数字が記載されていることがよくある。実際のbid/ask/last値については契約しているブローカーからきちんとデータを入手すること。

本日我々が議論するのは限月まで1年ほどの長期Call Optionである。限月が9ヶ月を超えるOptionは一般にLong-Term Equity Anticipation Securities (LEAPS)と呼ばれるが、期限が長いことを除けばごく普通のバニラオプションである。日本では日経平均先物に対する限月の短いオプションしか流動性が無いようだが、米国株のオプションは限月が短いものも長いものも流動性があり、Market Makerが最低10枚 (=1,000株)の取引が可能となるようなbid値とask値を絶えず出す義務を負っている。長期になればbidとaskのスプレッドはそれなりに大きく最初の注文でこのスプレッド分の損失を受け入れる必要がある。しかし適切なオプションを買えば、このスプレッドによる損失よりもずっと大きなリターンが後から手にできる。

LEAPSはアメリカン・オプションで限月までのどの営業日でも行使可能である。一方で本日の分析では、限月にのみ行使する前提でペイオフを計算する。つまりヨーロピアン・タイプのペイオフ特性を仮定する。今回我々はCall Optionしか扱わないのでアメリカンとヨーロピアンは理論価格が同一となり違いを無視してよい。Call Optionは配当が支払われることで下落するのだが、この配当の影響は今日の分析では無視している。もしSPY ETFに投資するなら配当は実際のところ重要なので、配当まで含めた意思決定は読者にお任せする。

SPYに関して限月が1年に最も近いのは、本日現在 2017年6月30日満期のものである。取引上は2017年7月1日にOptions Clearing Corporation (OCC)による自動行使が行われる。この日が満期のCall Optionに関して、その(行使価格, bid, ask, last)のデータを取得する。bidとaskがある程度開くので買付にあたって実際にいくら支払う必要があるかは板次第なのだが、ここでは(bid+ask)/2で買えたと仮定する。正規分布を仮定したブラック・ショールズ式は特に用いず、本日現在のオプションの市場価格と予測された年次リターン分布を元にポートフォリオを組成する。

愚直なポートフォリオ最適化

コールオプションのペイオフは、2017年6月30日の株価が行使価格以上だったら(株価-行使価格)-オプション購入価格, そうでなかったら – オプション購入価格である。儲けを出すためには、株価が行使価格とオプション購入価格の合計を超えなければいけない。

  • 米国株オプションは現物決済である。満期の時点で必要源資産を買い付ける現金がない場合には前日までにオプションを他人に転売すること。そうでないと、レバレッジがかかった状態で週末の間の価格変動リスクを負うことになる
  • 正確には自動行使の行われる土曜日には市場での転売はできないので、前日である金曜日に差金決済(行使して手に入れたSPY ETFをすぐ売却する)前提で記載している

オプション購入価格をP_0, 本日現在の株価をS_0, 行使価格をKとおく。実現した株価リターン(対数ではなく通常の割合の方)をY_Tとすると、投下金額であるオプション購入価格を分母とした資産倍率(=Return on Invested Capitalに1を足したもの)は \max \lbrace (S_0(1+Y_T) - K)/P_0 , 0 \rbrace となる。この資産増加倍率と現金(資産増加倍率はrisk-free rateで定数)との間で実際にポートフォリオを組み、所望のリスク・リターン尺度を達成するベストのポートフォリオを探索すれば良い。実際に最良の行使価格とポートフォリオを探索するコードは例えば下記のRコードのように行う。

for(optionAttr in optionAttrList){
  K  <- optionAttr$StrikePrice
  P0 <- optionAttr$MarketPrice
  callMult <- ifelse(S0*(1+y)&amp;gt;K, S0*(1+y)-K, 0.0) / P0
  for(r in c(0:100)/100.0){
    y_r = log((1-r) + r*callMult)
    if(satisfy_constraint(y_r)){
       perf <- mean(y_r)
        maxPerf <- perf
        bestDist <- y_r
        bestPosSize <- r
        bestOptionAttr <- optionAttr
      }
    }
  }
}

 

上記のRコードについて少し解説すると、

  • 変数 y にn(=10,000)個のシミュレートされた年次リターン・ランダムサンプルが入っている
  • 変数optionAttrListに全てのCall Optionの(行使価格, 市場価格=(bid+ask)/2)が入っている
  • 年次リターン・ランダムサンプルの一つ一つに対してCall Optionを行使する方が得か損かを判定し、Call Option全体の資産増加率に関するランダムサンプルを得る
  • Call Option全体の資産増加率に関するランダムサンプルと、現金 (ここでは金利0としているがより現実的にはrisk-free rateを入れる)とをr:(1-r)の比率で混ぜたポートフォリオによる資産増加率について、最終的なランダムサンプルを得る
  • 最終的なランダムサンプルに対する統計量: 例えばValue at RiskとかExpected Shortfall を計算しそれが条件を満たしているポートフォリオの中で (この処理を関数satisfy_constraintで行う)、なるべく期待値が高いものを探索する
  • 期待値に関する補足: リターンそのものの期待値ではなく、資産増加率(=1+リターン)の対数に関する期待値を取ることで長期投資に向いたポートフォリオができる
    • リスク資産の分布が来年以降も同じであった場合に、今回と同じ賭けを複利で運用していくと仮定する
    • その場合、トータルの期間の対数リターンは対数期待値 x 年数 にだんだん収束する
    • 期待値最大化よりも対数期待値最大化の方がより持続性のあるポートフォリオになる。詳細は別エントリーでそのうち書きたいと思う

モンテカルロ法のランダムサンプルに対して 混合比 (1-r):r をグリッドに区切って探索しているだけのexhaustiveなコードであるが、リターン分布の特性に関して制約されないので実務上有効なアプローチである。

実際に最適化されたポートフォリオの例

著者の手元のシミュレーションでSPY 2017年6月30日満期のCall Optionと現金のポートフォリオとして最適と判断されたのは、以下の通りである

  • 投資金額の97%を現金で持つ (ほとんど現金である!)
  • 残りの3%で、行使価格 $238 のCall Optionを買う: 市場価格は$2.59
  • SPYの2016年7月26日終値が$216.75なので、ほぼ10% Out-of-The-Money (OTM)のCall Optionを買うことになる

SPY.annual.call

図1. (再掲) 最適化された現金+Call Optionsポートフォリオの年次リターン確率分布

ほとんど現金なので最悪ケースでも97%の元本が確保されるのだが、OTM Callを買っているため、それでも普通にETFを買っているよりレバレッジがかかっているのである。例えばあなたが $100,000 (一千万円以上)投資するとすると、

  • ETF: 100,000/216.75 = 461 [株]を買う
  • 現金+Call: $97,000 を現金としてリザーブし、$3,000で $2.59のオプションを 1158株分,
    オプションは100株単位でしか買えないので 12枚買う
  • ETFとCall Optionとを比較すると、後者は1158/461 = 2.5[倍]のレバレッジがかかっている

見かけの金額が小さいことに騙されないよう。実際にはCall Optionのポートフォリオは元のSPY ETFの変動を2.5倍も増幅するように賭けているのである。10%のOTMなので株価が上がってもすぐにCall Optionの価値は上がらないが、SPYが上昇しオプションがIn-The-Money (ITM)になるに連れて激しい変動がもたらされるようになる。それでもレバレッジを2.5倍程度にとどめるように、というのはなかなか示唆に富んでいないだろうか。買いつけ可能金額だけならもっとたくさんのCall Optionを買うことができるが、実際にはそのようなギャンプルはほぼ確実に失敗に終わる。大ギャンブルすることが可能な状況において流行る射幸心を抑えることがオプションのロングポジションを構成する時の基本というわけである。それでも2.5倍レバレッジしているということは、保険に頼ることでちょっとだけ大胆になっている、というわけだ。

今回のような、大部分を安全資産に賭けつつ、一部の限定された割合を変動の激しい資産に賭ける方法をバーベル戦略というが、Nassim Nicholas Talebが昔から推奨している方法が今回の数理的最適化でも結果的に選定された点は興味深い。

 

ブラック・スワン[上]―不確実性とリスクの本質

ETF原資産との比較で、バーベル戦略のポートフォリオがどの点で優位/劣位にたっているのか明らかにするには、両者のリターン分布を同一のスケールで重ねて描画してみると良い。それは図2の通りである。現金+Callはほとんどの場合は少しだけ損をして終わるため、例えば20%ぐらいのまぁまぁのリターンを達成する可能性は原資産よりも低いのだが、最悪ケースと最良ケース、そして平均では勝っている。

SPY.stock_vs_call

図2. 元のETFと選ばれた現金+Callとの年次リターン確率分布の比較

裁定機会の存在について

オプション・プライシングモデルに詳しい一部の読者諸賢は、完全なフリーランチではないとはいえ、今回のSPYのような優れたポートフォリオが組めるならもっとオプションの市場価格が上がってしかるべきではないか? 裁定機会が存在するのはおかしいのではないか? と思うかもしれない。著者の考えでは実際におかしいのはプライシングモデルの方で、裁定機会が存在しないという仮定は成り立っていないと思う。

ブラック・ショールズの公式なら、二つの点が特にずれている。一つ目はよく言われることで、ファットテールを考慮していない。二つ目の点が今回の戦略のもとになっているのだが、幾何ブラウン運動のドリフト項をrisk-free rateに選ぶモデリングは実際の価格と一致しないと考えている。歴史的に見てもSPYは6%程度の平均リターンをもたらしてきたわけで、10年満期T-bond (米国債)よりも利率が良い。金融工学の授業で習うように、裁定機会が存在しないという仮定はドリフト項はCall Option価格に影響を与えないという結論を導く。しかし、その仮定を取り払った場合にはドリフト項がCall Optionのプライシングに重要であり、実際には本質価値より安いCall Optionを市場から買える場合がある、ということになる。これは著者個人の考えに負うところが大きく断定はできないので、読者諸賢は自分なりの結論を出していただければ幸いである。先日紹介したテキストでも、risk-free rateをドリフトに使う仮定はおかしいのでは? という問題意識は提示されている。


The Intelligent Option Investor: Applying Value Investing to the World of Options

いつもOTMのバーベル戦略が選ばれるのか?

最後に、インプリケーションがどれぐらいの銘柄に当てはまるものなのか、参考程度に個別銘柄で同様の分析を行った結果を紹介する。退屈な企業に大きく賭ける (1) で注意事項を挙げた通り、個別銘柄のリターン予測に過去リターンの分布をそのまま使うことはおすすめしない。あくまで本質価値との乖離から分布を設定することを強く勧める(従って財務諸表の各種数値から年次リターン分布を予測する回帰モデルを作るべきだ)。しかし参考程度に、同様に過去のリターン分布が再現できると仮定した場合にどのようなポートフォリオが優れているのか知ることは読者の興味になり得るだろう。

今回は Visa (V)を例題銘柄とした。安定したキャッシュフローを生み続けている銘柄である。モバイルペイメントにdisruptされるという噂がよく立つが実際にはそちらからも収益を上げている ので、とりあえず安定したリターン分布が続くと仮定しやすい銘柄だと考えた。実際には2016年7月30日現在でP/Eが33もある割高銘柄であるので、今回の分析の仮定の脆弱さは忘れないでいただきたい。図3の日次リターン分布をもとにしてシミュレートしたのが図4の年次リターン分布である。オプションの在庫の関係で満期は2017年6月16日となっている。またツールの関係でfrom 2004と表示されているが、実際にはfrom 2008である(それ以前は上場していない)。

V.daily

図3. VISA: 2008年から2016年までの日次リターン分布推定結果

 

V.annual.stock

図4. VISA: シミュレートされた年次リターン分布

着目すべきは最適化で実際に選定された現金 + Call Optionsのポートフォリオである。87パーセントを現金に, 13パーセントをCall Optionに当てるということでSPYの場合よりもOptionの割合がかなり高い(従って最悪ケースでは13パーセントのロスになる)。しかし行使価格が$77.5, オプション市場価格: (6.75+6.95)/2=$6.85 で現在株価の$78.05から見ると やや In-The-Money (ITM)である。OTMではなくITMが選ばれた。バーベル戦略ではあるが、バーベルの端は尖り具合が小さい、というわけだ。

V.annual.call

図5. VISA: 最適化された現金+Call ポートフォリオの年次リターン分布

同様に$100,000を賭ける場合を考えるとレバレッジ比率は以下の計算により、1.5倍である。OTMではなくITMを使うことでレバレッジを抑えるべき・より現物株に近いペイオフ曲線にせよと言われているわけである。VISAの場合、優良企業で人気があるためOTMは順調に株価が上昇すると凄まじいリターンをもたらすことになる。この予想にもとづきOTM Call Optionは人気がですぎて割高になっている可能性が高い。

  • 現物株式: 100,000 / 78.05 = 1281 [株]購入
  • 現金+Call: 13,000 / 6.85 = 1897[株]分なので 19枚
  • レバレッジは 1897 / 1281 = 1.5 [倍]

肝心のリターン分布であるが、ITMを使っているおかげで、まぁまぁの利益が得られる可能性もかなり高くなっており、現物株式よりほぼdominantに優れたポジションになっている。もちろん、これはリターンの予測分布が正しかった場合の結果であるから、実際の運用に当たっては株価とファンダメンタルズとの乖離をよく考える必要がある。

結論

現金とCall Optionsで組むポートフォリオの最適値を、シミュレーションベースで計算する方法を提示した。SPYとVISAを比べてわかるように最適ポートフォリオは銘柄と市場の状況によって異なる。ITM, At-The-Money (ATM), OTMのどれを買えばいいのかにも注意深い計算が必要である。

単純な統計的アプローチ+シミュレーションベースの愚直な最適化が、ギャンブルに流行る投資家の射幸心に歯止めをかけられることを示した。保険をかけて1.5-2.5倍程度のレバレッジをかけるポジションが推奨されており、間違っても5倍とか10倍といった結果は出てこない。妥当なレバレッジの目安レンジが、退屈な株式をレバレッジ投資する投資家に多くの示唆をもたらすことを期待する。

 

 

広告

退屈な企業に大きく賭ける (2)

前回、退屈な企業に大きく賭ける (1)で、低ボラティリティの株式にレバレッジをかけて高ボラティリティの成長株よりも優れたSharpe Ratioを狙う戦略を紹介した。借金だけを用いたレバレッジはテールリスクに対して脆弱であって実際の適用に難がある。しかし我々にはまだ道具が残されている。Call Optionである。Call Optionが何であるかを説明すると流石に記事が長くなりすぎるので、ご存知ない方はまずテキストで勉強されたい。

多くのオプションのテキストは種々のプライシングモデルについて延々と説明しているか、または短期売買のための様々な合成ポジションを列挙している。しかしいずれも本日議論する単純なレバレッジ戦略には必要ない。ブラック・ショールズの式も必要ない。中長期のBuy & Hold前提でCall Optionをロングする投資家には、以下のテキストが良いと思う。MorningstarのFounder CEOであるJoe Mansuetoも推薦している。


The Intelligent Option Investor: Applying Value Investing to the World of Options

これ以降、定量的に評価して妥当なアプローチでなければ議論する価値がない。したがって実データに基づいて話をする。そのため、題材として実在の株式またはETF: 今回はS&P500指数に連動するETFである SPYを取り上げる。インデックスを取り上げる理由は次の二つである。

  • 多くの投資家にとってはインデックス・ファンドをホールドする方が、個別株を買うよりも理にかなっている
  • 将来のリターンの確率分布を得るにあたって、過去の価格時系列から単純な統計手法で推定した分布がある程度信頼できる
    • 後述する周辺化されたリターン確率分布を用いるアプローチ
    • 個別株には今回の方法は不適切である。SPY ETFにも本来は不適切であるが、個別株よりは問題が少ない

Call Optionへの長期投資を行うためには、今日から1年後までの累積リターンに関する確率分布を事前に知らなければいけない。この推定誤差をできるだけ減らすことが良いポジションの鍵である。それだけでそれなりの分析が必要なため、今回は年次リターンの確率分布を予測するところまで取り上げる。次回は、予測された年次リターン確率分布を元にCall Optionのストライク価格やポジション量を最適化する。

SPYを取り上げたのはあくまで分析のためであり、SPYへの投資を推奨するものではないことは免責事項で周知している通りである。Disclosure: 著者は2016年7月26日現在、ごくわずかな量のSPY Call optionをロングしている。

日次リターンの確率分布を推定する

母集団の選定

我々が議論するのは一年間ホールドしたときのパフォーマンスである。しかしその予測を行うための定量データとしては日次の株価を利用する。年次リターンのデータではなく、細かい日次リターンを利用するのは以下の理由による。

  • サンプル数の確保: 過去数十年とっても年次リターンのサンプル数は数十しかなく、分布推定に乗る誤差が大きい
  • 米国経済を長期で見たときの非定常性: 第二次世界大戦後からケネディ政権が出来上がるくらいまでの中間層が成長した時期、レーガン政権が新自由主義を推し進めた時期、近年の金融危機後でGDP成長が停滞した時期、といった時期によってアメリカ経済全体のマクロな成長率は異なっている。ケネディ政権のころの安定したリターンの分布を現代に適用するのは適切ではない

今回の分析では、2004年1月1日から2016年7月26日(昨日)までの価格時系列データを用いることとした。この期間であれば2008年の金融危機以前と、2008年以降のGDP成長率が低下した時期 – 元財務長官のLarry Summersによれば長期停滞が始まっている – と金融緩和による底上げとをどれもそれなりに含んでいる。

  • 個別企業の場合は株価は企業業績が決めるため、昨年と同じ業績が今年も続くと仮定するのが正しくないケースが多い
  • S&P500指数も本来は企業株価の集合体なので同様の制限がある。多くの企業がFree Cash Flowと株価の関係から見て過大評価されている時期においては、その後のリターンは市場全体にダウンワードバイアスがあると考えるべきである。よって本来はSPY ETFでも同一のリターン分布を用いるべきではない
    • しかしグリーンスパン議長の時代のように資産価格が膨れ上がった時期、リーマンショック直後の株価が過少評価された時期等を広く含むことによって、周辺化された確率分布は各種のケースをバランス良く含むものと仮定することになる

今回は2004年からのデータを使って2016年後半から2017年前半にかけてのリターンを予測する。なお、非定常性の考慮(通常は期間を短くとった方が良い)とサンプル数の確保(期間を長く取った方が良い)との間のトレードオフを適化したい、というエンジニア的発想の諸氏は、以下のステップをコンピュータプログラムで実装すると良いだろう。

  • 期間 (s-H) から (s-1)までのサンプルを用いて推定した確率分布を用い、期間sでの予測尤度を計算する
  • 上記の予測尤度に関して s = H+1, H+2, … の間の平均が最大となるような窓幅Hを選択する
  • 長期の予測尤度を考えているので、sは年単位である

なぜ日次リターンか

具体的な推定の前に、今回のアプローチの根拠を明らかにしておく。日次リターンを利用する利点に関して、サンプル数以上の根拠は、日次リターンの周辺化された確率分布を精確に求めるだけで、年次リターンの確率分布もそれなりの精度で求まることである。

  • これはリターンそのものの自己相関が無視できるためであり、後述する
  • 「周辺化された確率分布」という用語はもったいぶっているように見えるが、要は時刻を無視した単一の確率分布ということ

用語を以下のように定義し、誤解のないように確率変数名もここで導入しておく。

  • 日次リターン: log(次の日の株価 / ある日の株価) : logは自然対数
    • 日付 t の株価をS_t, 日次リターンの確率変数を X_t = \log(S_{t+1}/S_t)と表記する
  • 年次リターン: (翌年の同じ日の株価 / ある日の株価) – 1
    • 日付 tから 日付(t+T)  (Tは翌年までの市場の営業日数)の年次リターンを Y_tとする
    • Y_t = \exp( \sum_{s=0}^{T-1} X_{t+s} ) - 1

日次と年次とで、対数を使うか普通の割合を使うか分けているのは、分析上の利便性からである。そして、データに由来する次の理由をもって、年次リターンの確率分布は日次リターンの周辺化された確率分布から推定できると主張する

  • 日次リターンの自己相関はほぼゼロである, i.e., \forall k>0~Corr(X_t, X_{t+k})\simeq 0
  • つまり、昨日が上がったからといって翌日上がりやすいか下がりやすいかという傾向に偏りは見られない。実際の2004年からのSPY日次リターンに関する自己相関係数をlag日数に対してプロットすると図1の通りであり、有意になることはあっても自己相関自体は小さい

SPY.acf1

図1. 2004年から2016年までのSPY日次リターンの自己相関

    • こちらも本当は少し議論があって、2008年の金融危機のような大暴落イベントの時だけは自己相関が正になっていることがドローダウンの分布から推定できるのだが、今回はこれは省く
    • 大暴落のメカニズムまで含めたモデル化について詳しく知りたい人はDidier Sornetteの以下を読むと良い


Why Stock Markets Crash: Critical Events in Complex Financial Systems

  • ゆえに、日付 t から (t+T)までの日次リターン時系列を生成する確率過程として、複雑な自己回帰モデル等ではなく単なる周辺確率分布からのi.i.d.なサンプリングを用いてよい

 

実際には上記の議論は大事な点を一つ落としている。それはボラティリティの自己相関である。日次リターンの自己相関はほぼゼロだが、日次リターンの絶対値の自己相関は図2に示す通り長く尾をひく。大きく上がった or 下がった日の翌日は、方向はわからないが同様に大きく動きやすいということである。他にも株価が下がった日の翌日はボラティリティが上がるという性質も広く知られている。

SPY.acf2

図2. 2004年から2016年までのSPY日次リターンの絶対値に関する自己相関

ボラティリティの自己相関を真面目に取り入れようとすると、GARCHやStochastic Volatility Model (SV)を基本とした自己回帰モデルが必要になる。しかし年単位の中長期投資においては、著者の見解ではGARCHを使う必要はない。これは以下の理由による。

  • GARCHは直近のリターンを状態としたマルコフ連鎖をモデル化したものである。このマルコフ連鎖はどの初期状態からスタートしても一年も経つと定常状態にかなり近くなる
  • 一年間のリターン予測精度という観点では、ダイナミクスを精密にモデル化・推定した上で遷移をシミュレートした場合と、周辺化された分布から単純にi.i.d.でサンプリングした場合とで、あまり違いがない
  • ダイナミクスを精密にモデル化した場合パラメータ数が増えるため、ベイジアンの適切な方法を用いない限りむしろ予測精度が悪化する

一般の投資家にとってはこれだけ理解すれば十分である。しかし何でも機械学習化したがるエンジニア諸氏のためにさらに補足を加えておこう。大多数の人はスキップして欲しい。

    • 自己相関を利用したボラティリティ予測モデルはGARCH familyだけではない
    • 例えば機械学習で知られる非線形回帰モデルを使ったアプローチも研究されている。過去のリターンを説明変数にして、未来のリターンの絶対値、またはリターンの確率分布そのものを条件付き密度推定するわけである
    • しかしこれら非線形の自己回帰モデルは長期予測に用いた場合バイアスが乗ることが指摘されており、このバイアスを減らさない限りおそらくは単純なi.i.d.サンプリングよりも精度が悪い
    • 長期リターンをダイレクトに回帰する方法と、シミュレーションによる自己回帰モデルの連鎖との中間のアプローチもある。代表的なのはMixed-Data Sampling と呼ばれる回帰テクニックである
    • 残るファクターとして考慮の必要があるのはボラティリティの長期記憶性: 一年経ってもしつこく残り続ける弱い自己相関である。これは今回の分析では切り捨ててしまうが、興味がある人は以下のテキストで学ぶと良いだろう。


長期記憶過程の統計―自己相似な時系列の理論と方法

日次リターンから年次リターンをシミュレート

日次リターンの確率分布P(X)が得られたとする。この分布からモンテカルロ法を用いてリターンサンプルを生成することにより、年次リターンの分布の近似値を簡単に求めることができる。

  • i = 1,2,\ldots,nまで以下を繰り返す。nは10,000くらい取ればよい
    • P(X)からT個のサンプル X_{i1}, X_{i2}, ..., X_{iT} を生成する
    • Y_i = \exp(\sum_{t=1}^T X_{it}) - 1 とする
    • サンプル  (Y_i)_{i=1}^n に対してカーネル密度推定法を用いてノンパラメトリックに年次リターンの分布を推定する

n = 10,000程度ではモンテカルロ法のランダムノイズに由来する誤差が特にテールの推定においてそれなりに残る。しかし元々のP(X)ですら近似値をデータから求めているにすぎないのでこのnを莫大にする利便性は低い。大量の計算機資源を持ちかつリスク評価に特に敏感な諸氏に関しては、例えば以下のようにして不確実性も上乗せして定量化すると良いだろう。これによりテールリスクは少し上乗せされた形で推定される

  • Y_iの生成に用いる確率分布は共通のP(X)ではなく、iに依存した確率分布P_i(X)とする
  • P_i(X)の推定には、オリジナルの日次リターンデータ全体の代わりに65〜80%のランダムサンプリングした標本を用いる

日次リターンは裾野の重たい分布を使って推定せよ

自己相関は無視しても良いと割り切ったが、何でもナイーブなモデルで済ませられるほど世の中は甘くない。年次リターンをシミュレーションによって求める場合、その元となる周辺化された日次リターンの確率分布はできる限り精密に推定する必要がある。日次リターンには確率が低い大暴落と多くの頻度を占める緩やかな上昇が含まれるため、その確率分布は重たい裾野と負の歪度が伴う。分散が有限かどうかはマンデルブローがLévy alpha-stable distributionを導入して以来、議論が続いたがRama Contが包括的にstylized factsをまとめているように、有限分散であることを仮定して良いことがわかってきた。裾野は正規分布よりは重たいものの、どこかで切れているということである。Contの研究含めた包括的なサーベイが欲しい人には下記を読むことをお勧めする。


ウォール街の物理学者

裾野が重たく左右非対称であり、日次リターンのモデル化に向く確率分布にNormal Inverse Gaussian (NIG) distributionがある。パターン認識の機械学習タスクばかりやって正規分布または指数分布族に毒された人々には馴染みがうすいが、金融計量経済学ではよく使われるスタンダードなツールである。今回はこのNIG distributionをRを使って適合する。大変有り難いことに、Rにはghyp という NIGの適合を簡単にやってくれるパッケージがある。なお自力でアルゴリズムを実装したいエンジニアはこちらの論文に示されたEMアルゴリズムを実装すると良い。著者はJavaで実装した自己のオリジナルパッケージを広範なシミュレーションを含むより複雑なモデリングに使っている。

価格時系列が変数priceSeqに入っているとすると、たとえば以下のRコードで実際に適合された確率密度関数を描画することができる。

library(ghyp)
retSeq = diff(log(priceSeq))
dist = fit.NIGuv(retSeq, save.data=FALSE, silent=TRUE)
print(summary(dist))
daily_mean &amp;amp;amp;nbsp &amp;amp;lt;- mean(dist)
daily_q0005 <- qghyp(0.005, dist)
daily_q0995 <- qghyp(0.995, dist)
daily_q0001 <- qghyp(0.001, dist)
daily_q0999 <- qghyp(0.999, dist)
curve(dghyp(x/100, dist), col=&amp;amp;quot;black&amp;amp;quot;,
  main=sprintf(&amp;amp;quot;%s: Daily-Return Distribution\nfrom 2004 to 2016&amp;amp;quot;, ticker),
  ylab = &amp;amp;quot;probability density&amp;amp;quot;,
  xlab = &amp;amp;quot;log(Price of day (t+1) / Price of day t) [%]&amp;amp;quot;,
  xlim = c(100*daily_q0001, 100*daily_q0999),
  cex.main = 2.5, cex.lab = 1.5, cex.axis = 1.5
)

dghyp(daily_mean, dist) * 2/3
abline(v = 100*daily_mean, col=&amp;amp;quot;blue&amp;amp;quot;)
abline(v = 100*daily_q0005, col=&amp;amp;quot;blue&amp;amp;quot;, lty=2)
abline(v = 100*daily_q0995, col=&amp;amp;quot;blue&amp;amp;quot;, lty=2)
genlabel <- function(name, value){   sprintf(&amp;amp;quot;%s\n%s%1.1f%s&amp;amp;quot;, name, ifelse(value&amp;amp;gt;0, &amp;amp;quot;+&amp;amp;quot;, &amp;amp;quot;&amp;amp;quot;), 100*value, &amp;amp;quot;%&amp;amp;quot;)
}
bh <- dghyp(daily_mean, dist)
text(100*daily_mean, bh*2/3, genlabel(&amp;amp;quot;mean&amp;amp;quot;, daily_mean), col=&amp;amp;quot;blue&amp;amp;quot;, cex=1.5)
text(100*daily_q0005, bh/3, genlabel(&amp;amp;quot;0.5%-tile&amp;amp;quot;, daily_q0005), col=&amp;amp;quot;blue&amp;amp;quot;, cex=1.5)
text(100*daily_q0995, bh/3, genlabel(&amp;amp;quot;99.5%-tile&amp;amp;quot;, daily_q0995), col=&amp;amp;quot;blue&amp;amp;quot;, cex=1.5)

 

実際に得られるグラフは図3のようになる。ダウンサイドである0.5%-tileの方がアップサイドである99.5%-tileよりも大きい。

SPY.daily

図3. 適合された日次リターンの確率密度関数

シミュレートされた年次リターン

さて日次リターンの確率分布が求まれば後は乱数を利用して年次リターンをシミュレートするだけである。カーネル密度推定法を使ったおおよその確率密度関数を描画する方法は次のとおりである。大真面目にやる場合はカーネル幅をサンプル領域に応じてadaptiveにすることでより滑らかで的確な関数が得られるが、大まかに全体を知ることが目的なのでここではそこまでやらない。

次回説明するSPY Call Optionの満期で1年に近いのが2017年6月30日満期のため、Tは2016年7月26日から2017年6月16日 (11か月程度)で出力する。

library(ghyp)
y = numeric(n)
for(j in c(1:n)){ y[j] = sum(rghyp(T, dist)) }
annual_stock_mean &amp;amp;lt;- mean(exp(y)-1)
annual_stock_q0005 &amp;amp;lt;- quantile(exp(y)-1, probs=c(0.005))
annual_stock_q0995 &amp;amp;lt;- quantile(exp(y)-1, probs=c(0.995))
kde_stock &amp;amp;lt;- density(100 * (exp(y)-1))
bh &amp;amp;lt;- max(kde_stock$y)
plot(kde_stock, col=&amp;amp;quot;black&amp;amp;quot;,
  main=sprintf(&amp;amp;quot;%s: Return Dist. until %s\nfor Common Stock Only&amp;amp;quot;, ticker, bestAttr$Expire),
  ylab = &amp;amp;quot;probability density&amp;amp;quot;,
  xlab = &amp;amp;quot;Annual Return [%]&amp;amp;quot;,
  cex.main = 2.5,
  cex.lab = 1.5,
  cex.axis = 1.5
)

abline(v = 100*annual_stock_q0005, col=&amp;amp;quot;blue&amp;amp;quot;, lty=2)
abline(v = 100*annual_stock_q0995, col=&amp;amp;quot;blue&amp;amp;quot;, lty=2)
text(100*annual_stock_mean, bh*2/3, genlabel(&amp;amp;quot;mean&amp;amp;quot;, annual_stock_mean), col=&amp;amp;quot;blue&amp;amp;quot;, cex=1.5)
text(100*annual_stock_q0005, bh/3, genlabel(&amp;amp;quot;0.5%-tile&amp;amp;quot;, annual_stock_q0005), col=&amp;amp;quot;blue&amp;amp;quot;, cex=1.5)
text(100*annual_stock_q0995, bh/3, genlabel(&amp;amp;quot;99.5%-tile&amp;amp;quot;, annual_stock_q0995), col=&amp;amp;quot;blue&amp;amp;quot;, cex=1.5)

こうして得られる年次リターンの予測分布は図4のとおり。対数で見た時とは違い、右側に裾野が広がっている。期待値は+9%で、歴史的なS&P500リターンよりも高く出ているが、これは近年の金融緩和の影響と、NIG分布の推定誤差の影響とが混じっている。ブートストラッピング or ベイジアンで更に精度を上げるのは読者個人にお任せする。

SPY.annual.stock

図4. シミュレートされたSPY年次リターン分布の確率密度関数

さて、図4が普通にETFを買うだけのポジションなのに対して、作成方法まだ非公開の図5は現金+Call Optionsで同様にロングした時のリターン分布だ。現金+CallはETF Onlyに比べて、期待値が高く、右の裾野がより伸びている(大儲けする可能性がより高い)。しかしダウンサイドを見た場合でも0.5%-tileは普通にETFを買う場合よりマシになっている。0.5%-tileよりさらにダウンする可能性もETFだとあるが、現金+Call Optionsの場合はここで裾野が完全に切れており、最悪ケースはETFよりもずっと良い

SPY.annual.call

図5. 現金とCall Optionsのポートフォリオに関するシミュレートされた年次リターン分布

期待値が普通株よりも高く、ベストケースが普通株よりもよくて、ワーストケースも普通株より良い。言葉だけ聞くとこんなに美味しい話はなさそうに聴こえるがいかがであろうか。もちろんこれはフリーランチではない。現金+Callポジションはまぁまぁ儲かる可能性はETF Onlyよりも低いのである。加えて、良い分布特性が得られるかどうかはオプション市場で良いCall Optionが安値で売られているかどうかにも左右される。しかしそのような機会はそこまで稀ではないことも分かっている。

次回は同じSPYに対するロングポジションでも、どのようにして図5のようなリターン特性を合成可能なのかを説明する。

退屈な企業に大きく賭ける (1)

先日、あるITエンジニアが株式投資を始めようとしていた。GoogleやFacebook, Netflixなどの著名なIT企業の株式を買って大当たりを狙うことを考えたようだ。GoogleやFacebookが今後も大きなearnings growthを示すかどうかは各人の予想に任せるとして置いておこう。ただこれらの企業は、例えばJohnson & Johnsonのような安定優良企業に比べて日々の株価の変動が激しい(=ボラティリティが高い)ことに多くの人は異論を唱えないと思う。

大きく狙うのも人生そんなに悪いことじゃない。けれどボラティリティの高い成長企業の株を買うことだけが、大きく勝つ方法なのだろうか? あるいは大きく勝つ方法の中の最善は成長企業の株を買うことなのだろうか? ブローカーに注文を入れる前にこのような自問自答ができるかどうかが、ど素人から素人に成長するにあたっての昇進試験である。

大きく勝つ手段の他の一つである、ボラティリティの低い企業の株をレバレッジをかけて買うという方法について議論しよう。借金することで、自分の持っている現金よりも大きな量の株式を取得するのである。

簡単のため、仮想的にA社とB社の株式について考える。そして年間リターンは正規分布に従うと仮定する(もちろん実際は従わないが理解のためである)。現在株価がともに$100で予想リターンが以下の通りの時、$10,000持っているあなたが大きく狙うならどのように銘柄選択するだろうか?

  • A社: 6\% \pm 8\%
  • B社: 17\% \pm 32\%

多くの人はB社株を100株買う。しかし一部の人は、なんと$30,000も借金してA社を400株買う。この時、例えば金利を必ず3%払う必要があり、期待リターンは結果として6\times 4-3=21[%]となる。結局のところ、二つの投資戦略の予想ペイオフは以下の通りである。同じボラティリティにもかかわらず、借金アプローチの方が期待値が高い!

  • B社を100株の場合: \$1,700 \pm \$3,200
  • A社を400株の場合: \$2,100 \pm \$3,200

人々はおうむ返しのように世の中はハイリスク・ハイリターンが当然だ、と教えられて刷り込まれていく。絶対水準に関しては殆どの場合そうだろう。しかしリターンとリスクの比率 (有限分散が仮定できる世界ではSharpe Ratioと呼ばれるものである) に関してはあまり正しくないケースが多い。低いボラティリティの株をレバレッジをかけて買う方が、高いボラティリティの現物株を買うよりも有利な現象はLow Volatility Anomaly と呼ばれている。

世の中には先を考える人がいるもので、A社とB社の相関を打ち消した応用戦略まで考える人もいる。Betting against Betaと呼ばれる戦略は以下のようなポジションの取り方をする。

  • 高ボラティリティの株を空売りする
  • 低ボラティリティの株をレバレッジをかけて買う

信用取引全開で目眩がするが、何か見落としがないだろうか (もちろんある。これは後述する)。しかしまず上がってくる疑問は、なぜこのようなアノマリーが持続しているかということである。これだけ性質が分かりきっている賭けならボラティリティの低い株式の買い付けが増えてしまい、リターンの期待値が減ることで結果的にアノマリーは消えるのではないか? そういう疑念があるが、実際には、おそらくは以下の二つの仮説のどちらかのせいで、このアノマリーは残り続けているのである。

  1. 世の中には金融規制があるので、そもそもそんなに大きな倍率のレバレッジをかけることができない。この結果、低ボラティリティの株が賭け足りない状況になっており、裁定機会が残る
  2. GoogleやFacebookの株を買う人は宝くじを買うようなナイーブなギャンブラーが多く、これらの企業は低ボラティリティ銘柄に比べて買われすぎ・過大評価される傾向がある。割高価格での購入が、長期で見ると低いリターン/リスク比率につながる

どちらの仮説が妥当そうかは論文でも議論されているので、興味のある方は読まれたい。ある種の観測データからは1.が支持されるようだ。ただし感覚について述べるのを許すならば(だってこのブログは主観について扱うからね)、著者の友人を見渡した上で2.も妥当性を感じられる。オンラインブローカーで軽々しく株式を買う輩はコンピューターに詳しいことが多く、IT業界で働いている可能性が高い。彼らはそもそもコンピューターと直結したビジネス以外は何も知らなかったりする。そのようなナイーブな投資家が、他の手段について調査せずにIT企業の株式をすぐ購入してしまうことで、需給関係の結果として株価が割高になるというシナリオは無視できないと思っている。

Betting against Beta戦略、あるいは低ボラティリティ株のロング戦略はWarren BuffettのBerkshire Hathawayが行っている投資戦略と類似していることが Buffett’s Alpha という論文で指摘されている。この論文もバリュー投資家の間では著名であり、未読の人には是非目を通されることを勧める。Berkshireの場合には自社が販売する保険のpremium (insurance floatという)を使ってレバレッジをかけているのだが、その定量分析も論文に掲載されている。さらに加えると、Low Volatilityをlongする戦略は手数料の低いETFとしても商品化されており、例えばPowerShares S&P 500 Low Volatility ETF (SPLV)はパフォーマンスの良いETFである。このETFは2016年1月の暴落以降、「質への逃避」のせいで人気が集まりすぎている気配さえある。 Disclosure: 著者は2016年7月26日現在 Berkshire Hathaway (BRK.B)の株主である

さて、レバレッジを万歳するかのような書き方は不本意であった。レバレッジはこれ以上良い銘柄選択ができなくなった時の、最後の手段であることを覚えておかなければいけない。ここまでに書いた内容のある程度をきちんと疑ってほしい。一番警戒すべきはテールリスクである。先ほどのA社株 6\% \pm 8\% と書いたが、本当に8%までしかダウンしないなんて保証があるだろうか? もし何らかの突発的ニュースで株価が一度に30%下落したとしよう。この場合、4倍レバレッジのかかったポジションにおいては-120%となり一発で破産する。ゼロになるだけならまだしも、債務超過で借金取りに追われるようになったら本当に人生が辛くなる。単に期待値と標準偏差を定数倍するだけのリスク管理では、低い確率で起きる大暴落に対する備えができないのである。これに対して、現物でB社株を買うだけならゼロより下に行くことは絶対にない。Low Volatility Anomalyは、レバレッジの持つこのような恐ろしさに対してあらかじめかけられた保険料だと見ることもできるわけだ。著者はたとえWarren BuffettやCharlie Mungerが引退してもその銘柄選定眼が後継者に受け継がれると考えている。したがってBerkshireを長期保有するつもりではいるが、保険というビジネスはテールリスクが敵となるビジネスなので(実際Berkshireは2001年の911で莫大な再保険料を払うことになったし、2008年の金融危機でも大きく傷ついた)、同社株に対するput optionを使って時々は保険をかけている。

さて、レバレッジの恐ろしさを思い知ったあなたはここで知的探索を諦めるだろうか?諦めるとは、バカになって単に流行しているIT企業またはバイオ企業の株を買うことである。それとも、もう少しばかり著者に付き合っていただけるだろうか? 知的探索とは、このLow Volatility Anomalyをもっと賢く利用する方法がないか更に考えることである。そのヒントの最後は前段落の最後の一文にある「保険をかける」ことである。株式にレバレッジをかけつつ暴落時は保険により破産しないで済む方法 – そのような狡猾なポジションを可能にするアセットクラス。我々庶民に与えられた最後のバズーカがcall optionである。

Low Volatility株のレバレッジに関するこの記事は複数回に分ける。次回はcall optionを使ったレバレッジについて紹介するとともに、プログラミング言語Rを使って定量的にリスク・リターン分析を行う。Call optionを使った投資も一番大事なのはリスク管理で、特にどれだけの量のCall optionを買いつけるかが肝になる。Call optionのロングは、直感で買う分には単にパチンコで浪費をするのと同様の結果に終わる。しかし理性と忍耐がある投資家には一流のベンチャーキャピタル並みのパフォーマンスがもたらされる。金融市場で働く計量経済学者たちと同様のアプローチに踏み込むので、楽しみにしてて欲しい。

 

 

 

パワードスーツを着た消費者と対話する

あなたが財やサービスを売りたいお客さんはどのような情報源を信頼して購買判断しているだろうか? あなたがたマーケターのメッセージと、Yelpやbooking.comに寄せられるレビューとどちらを信頼しているだろうか。もし、あなたが今までブランド広告で成功してきた人で、商品の本質の代わりに無関係なステータス・イメージの刷り込みに注力してきたなら、これからはその成功体験に殺されないよう警戒しよう。お客さん達の習慣が昔と同じままかどうか、良く考える必要がある。そして今のお客さんが後者のタイプであることに気づいたら、自分のできることは昔よりもずっと少なくなったことを認めたほうがいい。今の消費者は手強い軍人ではない。しかし最強のパワードスーツを着た小学生であってあなたを狙い撃ちにしている。マーケターのやれることはまだいくらかあるが、これからはB2Cのマーケティングは花形の職業ではなくなっていくかもしれない。

統計バカごときが俺たちセンス抜群のマーケターに物申すなって? オーケー。そもそもこんな態度をとるマーケターは仕事上見たことないけども(笑)、そういう人が現れたとしても著者は伝えるべきメッセージがある。このブログの著者が信用できなくても、スタンフォード大学教授で消費者心理を利用したマーケティング理論の第一人者の話は聞いてみる気にならないだろうか? 彼はノーベル経済学賞を受賞したDaniel KahnemanやAmos Tverskyの重要な共同研究者でもある。そしてその彼が、自分の成功をもたらした心理学上の発見を自己否定するかのごとく、新しい時代のマーケティング・コミュニケーションについて論じているのが本書である。真の賢者は自己破壊的な衝動を持つことでイノベーションのジレンマから逃れるものだが、彼の衝動に我々も習うべきではないだろうか。

ウソはバレる―――「定説」が通用しない時代の新しいマーケティング

彼の名はItamar Simonson。マーケティング、特に機械学習モデルと心理学モデルの境界領域をターゲット研究分野に定めた著者にとっては、キャリア上絶大な影響を受けた恩師にも当たるだろう。彼は消費者が商品を選択する際に発生するcompromise effect (1989)と呼ばれる心理学的効果を発見した。それにより、新古典派の経済学者が仮定するような一貫した効用関数を一般消費者が持たない、という事実を劇的な形で示した。Compromise effectや、あるいは別の認知バイアスであるattraction effectと呼ばれる心理現象では、消費者はどのような選択肢が提示されたかによって商品の選好順序を変えてしまう。そこでマーケターたるあなたは、店頭で提示する商品の組み合わせを意地悪く操作することで、割高な商品をいとも簡単に売りつけることができる。この心理学的テクニックは実際に多くの店舗販売で利用されてきた。

  • 便乗宣伝で申し訳ないが、著者は、compromise effectを再現しデータを元に定量予測できる特殊な機械学習モデルを2015年に発表している。論文はこちら

Compromise effectとは、トレードオフの関係にある選択肢集合からは真ん中の妥協した選択肢が選ばれやすい、という現象のことである。例えば下図のように価格と品質とにトレードオフがある選択肢をランダムに分けた被験者に見せる。Windows OSのhome edition, professional edition, ultimate editionみたいなものを想像するのが簡単だろう。この時、存在するすべての選択肢を一度に見せないのが心理実験の肝で、グループ1には選択肢集合{A,B,C}を、グループ2には{B,C,D}を、グループ3には{C,D,E}を見せる。結果はグループ1ではB、グループ2ではC、グループ3ではDが最も人気を得る。見せ方によってB>CなのかC>Bなのかが逆転してしまうわけだ。

NIPS2014

実商品の例が見たい人は下記スライドのpage 5に示した、パソコンを選ぶ例を参照してほしい。

さて、なぜこの現象がマーケティング上そんなに重要なのだろうか? それは絶対効用に基づく競争から逃れるヒントになっているからである。資本主義社会で生きる我々は常に、競合他社との競争にさらされている。たとえ良い製品を作ったとしても、似たスペックの製品を他社が出してきたら? 顧客を他社に取られないためには、同じ値段でさらに良い製品に変えるか、または値下げをして利益を諦めなければならない。ところがcompromise effectに頼ると、たとえ今の製品を改善 or 値下げしなくても、二つの追加の囮の商品: 品質が良いが値段も高い商品と値段が安いが品質も悪い商品を棚に並べておけば、あなたの商品を消費者がさも納得して買って行ってくれるのだ。これは消費者が世の中にあるすべての商品を比較して絶対効用が最大のものを探すことをせず、目の前にある3つの選択肢から相対比較だけを元に選ぶことを強要されていると発生しやすい。

ところがSimonsonは、compromise effectのような心理学効果は今日の実際の購買シチュエーションでは消えてしまうことを確認した。つまりAmazon.comやkakaku.comで類似商品を検索し、種々の商品のレビューを読んで比較して納得した一品を最後にカートに入れるという一連の行動を伴う状況では、目の前の選択肢に集中させて騙す方法が通用しないのである。

彼ら心理学者のグループは、compromise effectを含む認知バイアスが人間から消えたわけではないことも確認している。たとえオンライン・ショッピングであっても、検索行動をさせなかった場合にはcompromise effectが再現する。人間自体が賢くなったわけではないのだ。人間は依然として、有限の記憶しか持たず余計な思考を省こうとする堕落した存在であり続けている。しかし環境は大きく変わった。kakaku.comで同一製品の最安店舗を検索したり、skyscanner.comで所定のルートを飛ぶ最も有利な航空券を店舗横断で探してしまう。製品それ自体の質が不確かな場合でもレビューサイトのおかげでどの競合製品なら欲しいものを代替できるか今日では分かってしまうし、そしてその検索を更に直感的にするiPhone / Androidアプリなどが登場してきた。その結果、怠惰で間抜けな人々であっても新古典派経済学が仮定する合理的なeconomic man (経済人)と似た振る舞いを示すようになってきた。つまるところ、ヘンリー・キッシンジャー博士も真っ青の賢い軍師ではなく、インターネットという最強のパワードスーツを着た本来は非力な村人が今日の消費者であって、その村人がマーケターの仕事を奪おうとしているわけだ。

この大きな変化は、単価が高くて質の評価が容易な商品、例えばパソコンや自動車で顕著になってきている。FMCG (Fast Moving Consumer Goods)のように単価が低くていちいち真面目に検索しない商品や、芸術性を価格に転嫁している商品ではまだブランドの力が残っているだろう。しかしどのような新しいwebサービスがこれら残り少ないブランドの力を奪ってしまうかはわからない。

Simonsonたちは新しい時代の良い点も積極的に説明している。マーケターが刷り込もうとするブランドイメージがなくても、他の消費者のレビューが良ければ製品が売れるケースが出てきた。純粋に良い製品を作った人・純粋に良いサービスを提供するホテルやレストランが評価されやすい時代に変わってきたのだ。また、イメージを刷り込む代わりに、レビューコミュニティに商品の実際の利点を評価してもらうことでも売り上げを増やせる可能性がある。誤った刷り込みのおかげで高い利益率を享受してきた悪党には厳しい時代になったが、本質的な価値を実際に創造する人々には恩恵がもたらされつつあるわけだ。

本書はマーケティングだけでなくバリュー投資にとってもインプリケーションがある。オールドエコノミーに属するバリュー株銘柄の幾つかは、消費者自身の過去の経験への執着を担保としたブランド力によって価値を維持している。FMCGかつ味への執着という恩恵を受けているコカ・コーラのブランドはそう簡単に毀損しないだろう。しかし時計ブランドのバリュー株は再考が必要そうだ。他にも、B2C事業ではブランドが毀損しやすくなってもB2Bのサービスの幾つかは事前に評価することが困難なものもある。クラウド・コンピューティングのサーバーならコストパフォーマンスが客観的で他ユーザーのレビューも参考にできるだろう。一方でクライアント企業の本業ビジネスを変革するコンサルティングは、クライアントにとっての事前評価が難しくブランドの毀損は比較的ゆっくり進むだろう。未来志向のマーケター・投資家の双方にとってmust readな一冊である。

References

I. Simonson. Choice based on reasons: The case of attraction and compromise effects. Journal of Consumer Research, 16:158–174, 1989.

 

音を幾何的に見ると将来の可能性がわかる

Chromatic circleを使って和声やその進行を幾何学的に捉える方法を紹介する。アナリーゼを行ってきた人にとっては馴染みの深い話だが、非音楽家もしくは演奏に集中してきた人に何らかのインスピレーションを与えられることを願って書いてみた。和声という単語は暗黙に音と音が並んだ縦の構造にフォーカスしている。しかし和声を感じ取るのに必ずしも縦方向に同タイミングである必要はないし、単にピッチクラスの集合として広く捉える方がすっきりしている。だから和声のアナリーゼに用いる分析手法自体はモード(Jazzならスケール)の選択にだって役立つ。

昔は縦方向の関係ではなく対位法のように旋律・横の関係が重要であった。しかし旋律内の個々のピッチクラス間の遷移を加速していくと、音はだんだん潰れて新しい和声が出来上がってくる。この結果、昔は受け入れ難かった複雑な和声も旋律による進行の極限として受容可能になった。

俯瞰すると、同時に鳴らすか時間をずらして鳴らすかは選択の余地がある一方で、鳴らすピッチクラスの集合を決めることが音楽の生成における重要なプロセスである。このプロセスを補助するのがChromatic circleによる分析ということになる。なお、進行の極限としての和声という見方はオリヴィエ・アランの「和声の歴史」でも紹介されており、読み物として非常にお勧めである。


文庫クセジュ448 和声の歴史 (文庫クセジュ 448)

 要旨

  • 長和音は周波数を整数倍していくことで、短和音は周波数を整数分の一していくことで現れる
  • 必ずしも長和音とか短和音に分類できない和声が多く存在する
  • Circle上で対称に配置された和音は不安定で各音の機能が特定できない
    • この曖昧性は特定調で捉えた時には不協和音であり、複数の調性が混在しているとみなすこともできる
    • この曖昧性は遠隔調への転調を容易にする。根音がはっきりした特定の和音へ進行することで、曖昧だった調性の中の一つを選択した形となる

12音の配置

多くの人は1オクターブの音の関係が感覚的に等価であることを知っている。ド(C)の音を1オクターブ上げてもドだし、ソ(G)の音を1オクターブ下げてもソである。物理的には周波数が2倍か1/2倍になる関係が1オクターブである。ここから連想して、周波数を3倍,4倍・・・と上げていくと図1のような倍音列を作ることができる。 殆どの楽器はある基本周波数の倍音を自然に含んでいる。整数倍の関係にある音は共振しやすく、つまるところハモりやすい。たとえばドの3倍の周波数としてソ(G)が現れ、5倍の周波数としてミ(E)が現れる。重複を除くと、和音の基本として知られる長三和音 (major triad) は周波数の観点でもっとも共振しやすい音を混ぜたものである。

図1. 倍音列: 左は整数倍音 / 右は整数分の一

図1左の倍音列を見ると、短三和音 (minor triad) がなかなか出てこない。短三和音も基本和音だと考える人は多いのになぜだろうか。その答えが図1右に示されている。短和音は周波数を1/2倍, 1/3倍, … と整数分の一していくと出現する。つまり短和音は長和音の逆行である。ドミソを見ると、ドとミの距離が半音4つ分で、ミとソの距離が半音3つ分だ。なのでこれを符号を反転させて、ドから半音4つ分下げるとラbが、そこから更に半音3つ分下げるとファが出てくる。ファラbドはF minorで基本的な短三和音だ。

まず最初にチューニングの話をしよう。1オクターブに対して12個の音をどのように配置するかという問題を考える。ドとソの共振関係というように特定の音と音とのピッチ関係を重視して配置する人は純正律等を用いるが、その対極にある極端としてここでは平均律について言及する。平均律は1オクターブの中を均等に分割する方法である。半音上がるごとに周波数が 2^{\frac{1}{12}}=1.05946\cdots 倍ずつ上がっていく。

平均律においてはどの音同士も完全には共振しない。そのため中途半端で響かないチューニングである。しかし異名同音(enharmonic)などの複産物を生み出すため大胆な転調を考える際に利用しやすい。このため、本稿ではこの異名同音のメリットを活用する。慣れてくればウェル・テンペラメントのように共振性と転調可能性を両方考慮した自分なりのチューニングだってできるようになる。

1オクターブして同じクラス: ピッチクラスの音に戻ることを図で表現すると、円弧を一周させるのが便利である。平均律は均等分割であるから、360°を12分割して30°ずつ動かす円を書いてみよう。12分点の頂点にピッチクラスを割り振る。シャープ/フラットどの名前を使うか、英語表記かドイツ語表記かで6通りのサンプルを図2に示した。

 

図2. chromatic circle

和音と多角形の操作

Chromatic circle上の12個の点を結んでみる。知っている和音について、それに外接する多角形を描いてみよう。まず最初はドミソのmajor triadを配置した。角度が45°,60°,75°の三角形が出来る。これを書くと円周角の定理ってのを中学のときやったなぁ…なんて思い出す。

図3. 三和音の構造

図3の左と中央はただの回転をしただけだが、これはトランスポーズの操作である。和音の中の全てのピッチクラスを同じ高さだけシフトしても和音の構造は同じだ。図3中央はファラド(F major)だが、これはドミソ(C major)を半音5つ分だけ時計回りに回転させたものである。そして図3ではドミソの中の転回は区別していない。つまりドミソ(基本形)、ミソド(第1転回形), ソドミ(第2転回形)はこれ自体では区別しない。転回形は進行のスムーズさに応じて使い分けるけども、本質的な機能が同一であることは聴感上わかると思う。

図3右は左と中央とは少し異なる。ファラbド(F minor)でminor triadである。この形はドの音と中心を結んだ軸を用いてC majorの鏡像を取ったものであり、この鏡像関係は注目に値する。minor triadはmajor triadの逆行であると先に書いたが、幾何学的には鏡像になるわけである。算数に慣れている人は直感的に納得が行くだろう。

ここまで書くと、ちょっとひねくれた頭を持つ人は、「回転したり鏡像をとっても同じ形の図形はどういう和音になるんだ?」という疑問を持つはずだ。回転しても同じということは転回形か否かと考えることにあまり意味がない。そして鏡像をとっても同じということは、長調・短調という概念が消滅して同一になってしまうことを意味する。図4はそのような和音の例である。

図4. 対称な構造を持つ和声の例

図4の1番左は三全音 (tritone) だ。古典では忌み嫌われてきた音である。2番目は増五 (augmented 5th)、3番目は減七 (diminished 7th) の和音。4番目はメシアンが好んで用いたwhole tone scaleを合わせたヘキサコードとなっている。これらの和音は長和音でも短和音でもない。逆にいうと、長調・短調という考え方は、非対称な音の構造に限ったときに現れてくるものであって、そればかりに目が行くと表現できる音楽の範囲が狭くなることに注意してほしい。

さて、こういう対称な和音はどういう響きがするのか。想像がつかない人は鍵盤を実際に押してみてほしい。最近はブラウザ上で鳴らせるソフトシンセがあるから、鍵盤をクリックしてもいいだろう。ここでは言葉だけで形容するが、虚無感、恐怖、あるいは力強さといった複雑さを内包する音である。

参考: ブラウザDTMができる画期的な無料webサイト10選

なぜ対称な和音は不安なのか?

一部の人は対称な構造こそ安定していて美しいと考える。僕は正反対の考えだ。対称な構造は、各部位の役割が定まらないから落ち着かない。組織論でも似たようなものじゃないだろうか。営業と開発が両方できる人を2人雇ったとして、二人とも営業50%開発50%で働いてもらうのは、対応するお客さんや製品を分担していない限り非効率に見える。無個性な均等分割は成果物に対する貢献を評価するにあたっても、統計学でいう多重共線性が発生してしまい、人事評価が難しい。

さきほどのC major ドミソ の和音を見てほしい。この三角形は正三角形と違い、三種類の角度に区別がある。ドミソにしようがミソドにしようがソドミにしようが僕らはこれらの音の組み合わせを聴くとドという根音(root)を強く連想する。つまり角度が45°のところの頂点を強く意識させられるのだ。回転しようが鏡像を取ろうが、角度が45°の頂点は一つだ。角度に関する非対称性は各音の役割を決めるのである。ドがまず決まり、ミは調性(長調なのか短調なのか)を決める。そしてソはドとの共振を通して響きを豊かにする。

一方増五や減七の和音では、各音の間にこういう明確な役割分担がない。ぱっと減七の和音を聴いたときに、根音はCなのかEbなのかFbなのかAなのか分からない。長調として解釈すべきか、その鏡像を取った短調として解釈すべきか、無限に反転してもいつも同じで不明なままである。少なくとも、調性的な耳をもってこれらの和音を捉えた場合、rootの割当と鏡像の取り方で増五は3 \times 2=6, 減七は4 \times 2=8, 均等ヘキサコードは6 \times 2=12通りの解釈ができてしまう。

対称から非対称への進行

「いったん不安にさせてから安定へと落とすことで強いカタルシス、普通よりも高い安心感を与える」音楽の一つのパターンとしてお馴染みである。我々は作曲家に心の中を操られているわけだ。

major triadは安定しているが、ずっとこの音を聴いていると飽きる。そしてこの和音はドラマチックではない。ずっと安定しているのはつまらない。ドミソをとったらハ長調(C major scale)の中での展開くらいはできるがずっとハ長調になってしまう。ここから近親調: 例えばト長調(G major scale)やヘ長調(F major scale)に行くことはできるが、いきなり嬰ヘ短調(F# minor scale)に飛べと言われても安易にやるとガタガタしたスムースでない転調になってしまう。

しかし遠隔調への転調においては、平均律の濁り具合と対称な和音の曖昧性・不安定さは素晴らしいスパイスとして働く。たとえば調の解釈の曖昧性を利用して、減七の和音からは八通りものtriadに進行することができる。

8progressionsFromDim7th

図5. 減七和音から三和音への進行

この多様な進行のエッセンスは、「どの音を導音(leading tone)を見なすか」という解釈にある。導音は調性的な進行の肝であり、「半音上がって解決する」という性質をもつ。C Eb Fb A という4つの音があるとき、Cが半音上がってC# に解決するのか、Ebが半音上がってEに解決するのか、Fbが半音上がってFに解決するのか、Aが半音上がってBbに解決するのか、解決後のrootが4通り考えられる上に、もともとがmajorであったとみなすのかminorであったのかとみなすのかでモードが2種類考えられる。対称な和音は曖昧でどの調にも属しているということもできるし、どの調にも属さないとも言える。好きなところで音を挿入して「滑らかなのにがらりと曲調を変える」ことができる。

おまけ: 物理学における「自発的対称性の破れ」と関係がある!?

Wikipediaで自発的対称性の破れ という項目を見てみよう。

リンク先右側のポテンシャル図を見てみよう。真ん中の盛り上がった部分から見て世界は対称である。しかしこの盛り上がった部分は不安定で、特定の方向に少し撹乱が加わるだけでそちらの方向にずるずると落ち込んでしまう。特筆すべきは、落ち込んだポテンシャルの底から世界を見ると非対称なことだ。しかし底では安定している。非対称な構造の中でどれに落ちるかは不安定な初期値に依存する。

この現象は、対称な不安定和音に対して無理矢理に調性的な解釈の一つを選び(つまり、頂点のうちどこを動かすかが気まぐれで選ばれ)、major triad or minor triadに落ちつく進行と似ている。両者の類似が偶然なのか、もっと本質的なことがあるのか、物理学を修めていない著者には分かりかねる。世界の真理を知りたい人には面白い類似性だろうと思うし、こういう一見無関係な現象の類似性を見抜くことこそ、抽象化・モデル化のスタート地点なのである。

老後もリスク・不確実性と向き合う

著者は2016年現在で30代後半でまだ働く期間がかなりあるが、自分の老後に関してはパラノイアかもしれない。老後の不安のせいで貯金ばかりしている人はしばしば笑い者にされたりする。著者に関して言うと外食にも旅行にもかなり散財しているので、貯蓄一点ばりの人とは違うのであるが(そもそも通貨単独はインフレにとても弱いからそれはそれで危険だ)、自分の資産総額と予定されている年金で果たして、引退後ひもじい思いをせずに生き残れるのか? という問題意識はよく反芻する。

どの先進国も高齢化に悩まされる中、労働者は好むと好まざるとに関わらず自分が現役で働ける期間を長くしていく必要がある。アーリーリタイアメント+資産運用という形を検討する人にとっては特に、そうでなくてもスキルの限界でリタイアせざるを得なくなる人もいるわけで、結局のところ老後の年金と資産運用は持つ人持たざる人双方にとって依然として大事である。年金の運用に関しては、著者の見る限り、米国や英国ではインターネット上の議論が日本よりも活発である。

米国・英国では確定拠出年金(401k)の運用方法が豊富であり、米国の場合、株式ブローカーでIndividual Retirement Accounts (IRAs) という口座を開くと、日本の確定拠出年金プランと比べても個別株の選定などかなり柔軟性のある取引を行うことができる。イギリスにもSelf-Invested Personal Pension (SIPP) Accounts というものがあって、望む人はかなり細かい取引ができるようだ。

  • 注意: 取引手段や回数の豊富さは必ずしも良いとは限らない。効率市場仮説の統計的検証結果など、投資上の基礎知識を身につけてこなかった老人にとっては与えられた選択肢の豊富さはむしろ害であり、無駄な取引を繰り返して手数料負けする危険性が高い
  • その観点で、インデックスファンドや投資信託が主なアセットクラスである日本の確定拠出年金口座は、無知な投資家を比較的保護していると言える

口座の充実を反映してか、英米では年金の運用方法に関するディスカッションも盛んである。専属のファイナンシャルアドバイザーを雇う文化も影響しているかもしれない。初歩で定番のテーマは株式と債券の割合をどれくらいにしたら良いのかというものだ。これに関して、多くの人にとって理解可能かつ面白い記事を最近目にした。

American Association of Individual Investors (AAII)の機関紙に掲載されたCraig Israelsen, Retirement Portfolio Survival: A 90-Year Study という、検証記事である。Disclosure: 著者は2016年現在、AAIIの会員である。

この記事によれば、老後であっても株式のウェイトを債券よりも高く維持しなければいけない。巷の風説では、若い時は株式を多く、年を取るに従って株式を減らして債券にシフトしていくべきとされているが、この過去90年間の統計と似たリターンの分布が将来にわたって続くと仮定した場合には株式の割合は半分を切るべきではない。

老後の資産運用は株式と債券で現金収入を生み出し、生活費のために取り崩すことの連続である。記事の要点は二つあって、

  1. 一年あたりの取り崩し金額を抑えることが、破産を避ける上でとても重要である。1%余計に引き出すと、複利効果のために破産確率は非線形にぐっと上がる
  2. 老後は安全資産にシフトして債券を増やすべきだという通説はあまり正しくなく、株式の割合を維持しないといけない

なぜこのような結論になるのかというと、長生きしすぎる事が経済的には大きなリスクだからである。予想外に長生きすると、債券の利息収入だけでは生活費をカバーできない。あるいはインフレに直面した年に急激に資産を減らしてしまう。グラフ化されている、90年間のそれぞれで資産運用開始した時の破産確率は注目する価値がある。

通説では株式はハイリスクハイリターンなアセット、債券はローリスクローリターンなアセットとされる。債券を金利に基づく時価ではなく簿価で買えた場合の話だが。しかしながら、年金運用の目的はリターンのボラティリティを減らす事ではなくて、破産を避ける事であるので、債券による低収入は立派なハイリスク要因なのである。

意外に捉える人もいるだろうが、お年寄りも株式でそれなりのリターンを稼がないといけず、そのためにはある程度のボラティリティを甘受する必要がある。貯めてきた年金総額が多ければ同じパーセンテージのボラティリティでも絶対額はかなり大きくなるだろう。認知能力の弱り始めた老人が大きなボラティリティに直面し続けた時に長期的に良い運用をできるとは思い難い。悲劇的事態を避けるには、金額が小さく失敗できる若い時からポートフォリオの組み方を訓練しておかなければいけないのである。そしてボケないよう、例えば有酸素運動を通して認知能力を維持するべきである。無知なまま老人になってからハイリスクな運用を行い、たまたま一年儲かった後に増やしたポジションで翌年大損を出すような事態を避ける必要がある。持たざる者の人生は資本主義社会ではまことにハードだ。

問われているのは二つの異なるタイプのリスクの間でバランスを取ることである。債券のせいで総資産が絶対的に不足するリスクと、株式の運用が失敗して総資産が目減りするリスクである。この計算を全ての老人個人にやらせるのはおそらく酷で、プロに運用させて人に任せるシステムの方がパターナリスティックではあるが社会全体では望ましいだろう。行動経済学で著名なRichard Thalerが進めるNudgeのように、デフォルトは代理人による運用で、相応の金融リテラシーテストに合格した人は自己責任で運用も選べるような仕組みがベストではないかと思う。

老後のキャッシュフロー生成には他にも持ち家を取り崩すリバースモーゲッジや、あるいは飲食店などのsmall businessを死ぬまで続けるという方法もある。リバースモーゲッジは日本でも最近宣伝を見かけた。株式+債券の運用よりもそちらが良いケースも十分あり得る。昨年redditのディスカッションにNassim Nicholas Talebが登場した時には、彼は引退後のキャッシュフロー生成にはsmall businessへの集中を勧めていた。ほとんどの金融取引に関する統計は、テールリスクを過小評価しているためである。この点に関して著者はNNTに同意する。90年間のシミュレーションも経験分布であって真の分布ではないことを忘れないで欲しい。一方で日本に限定して言うと、人口が今後もコンスタントに減っていく割に飲食店などはすでに供給過剰で価格競争が激しすぎるので、small businessを引退後のサラリーマンに勧められるかは著者は疑問符をつける。

運用に関して、年金行政に携わる人はどのように考えているのか、機会があったら聞いてみたいものである。全ての投資家がbeat marketすることは定義によって出来ないので、年金運用はbe the market を目指すのが基本であると思うが、そのmarketが一体どれくらいのリターンをもたらしてくれる前提で将来に備えているのだろうか。

 

Economic Moatの機械学習モデル

バリュー投資を行う上で、誰にとっても客観的で有効なのは財務諸表から計算されうる定量的な説明変数をもとにバリュエーションを行うことである。一方で、コカ・コーラが持つ莫大なブランド価値のように、キャッシュフローに直接影響を与えている、定性的だが強力な側面を見落としてしまうことは望ましくない。このような定性的側面の見落としは、特に環境変化が大きい時期には致命的である。新興企業の一部が既存プレイヤーの利益を侵食した場合には、今までのキャッシュフローを単に外装して予測したものが正しくなくなるためである。

競合他社がそう簡単に破ることのできない、既存企業が作り上げた参入障壁はよくEconomic Moat (堀)と呼ばれる。Moatをバリュエーションにどう反映するかはプロの世界ではアナリストやファンド・マネジャーの重要な仕事であろうし、アマチュアとプロの差が出やすい領域と考えられる。

著者はアマチュアの側なので、アマチュア投資家あるいは金融業界のアウトサイダーにとってメリットが有りうるアプローチを取り上げる。紹介するのはMorningstar社が行っている、機械学習ベースの半定量的 Moat予測モデルである。以下の3ステップからなるアプローチを半と表現した。

  1. 人間のアナリストがカバーしている一部の有名企業に対して、彼らが自分の知見をもとにMoatスコアを手で与える
  2. 財務諸表から生成される説明変数Xと従属変数であるMoatスコアYとの対応関係、つまり Y = f(X) + ε の 関数 f を、大企業データに対して機械学習を用いて学習する
  3. 1.でカバーされなかった中小企業の財務諸表から得られる説明変数X に、2.で得られた関数 fを適用することで、人間がカバーできない多くの全ての企業のMoatを定量化する

時間のある人にはこちらのレポートを直接読んでもらうこととして、簡単な補足を加えてみる。

関数 f には、機械学習分野ではよく知られている Random Forest という手法を用いている。Random Forestを用いているのは多変量非線形の関数を取り扱うことができる汎用性の高さと、個々のtreeが出す予測値の違いを利用してuncertainty (使われた学習データだけからは判断のつかない不確実性)を容易に定量化できるためである。機械学習アルゴリズムは他にもいっぱいあって Gradient Boosted Decision TreesとかDeep Neural Network などを使って更に精度を上げることも可能であろうが、アルゴリズムよりも以下の視点の方が投資家にとってずっと大事である。

  • 説明変数 X  にどのような指標を入れるべきか
  • モデルのバイアス / バリアンス(不確実性)がどれほど存在するか
  • 予測されたMoatスコアをどのように利用するか

 

著者が種々のバリュエーションのテキストを読んだ時に、よく以下の点が気になる。

  • Value Driverとなる説明変数の数が増えるたびに、不確実性が増す

この不確実性増加問題は、Valuationの大家であるNYUのAswath Damodaranも例えばCAPMにおけるbetaの推定を題材として取り上げている。

不確実性が高いというのは、機械学習界隈ではバリアンスが高いとか過剰適合の問題として知られている。より表現能力の高い(バイアスの低い)モデルを作ろうとして学習データにのみ当てはまり将来のテストデータでは的外れな関数を適合してしまう、というよく聞く話である。

バリュエーションでも一般的な機械学習問題でも根っこは共通だが、一つ着目すべき違いもある。バリュエーションの場合、fは最終的な株価を予測する式ではなくて、来年度の売上など理論株価を計算するための中間変数を予測する式になることが多い。つまり説明変数が確定値ではなく確率的であり、不確実性がさらに余計に乗るわけだ。しかしこの問題を無視して各種ドライバーを確定的に計算してしまうアナリストは多く存在する。不確実性は説明変数の数が増えるとどんどん増していくわけだが、その定量化をもしRandom Forestのような枯れたアルゴリズムを使ってそれなりの精度で計算できるなら、投資判断の精度が少しは上がるだろう。

この仕事であるが、単に投資に役立つというだけでなく、機械学習の産業応用として良い例だと思っている。昨今の人工知能ブームの影響か、機械学習のおかげで既存事業のドメイン・エキスパートが必要なくなるという意見を見かける。しかし、このMorningstar社のケースでは、アナリストとシステム両方があることでむしろMorningstarの強みが強化されている。正解データとなる大企業のMoatスコアは、アナリストが入力しなければ不在のままでアルゴリズムは何もできないのだ。この機械学習Moat予測システムの生態系は、客観的な予測のできる優れたアナリスト、daily levelの財務データを低いコストで入手できる業界内の立場、そして財務プロと協業する意思のある統計学者の3者がシナジーを発揮することでできている。

正解データというと、システムトレードに親しんだ人は単純に株価の(例えば1年間の)リターンを従属変数にしようと考えるだろう。しかし著者の個人的意見ではリターンよりもMoatを予測する方が良い。市場が適切な株価を与えていて旨味のある投資機会が存在しないか、それとも過小評価された株式が存在するかはその時々によって違い、非定常である。この非定常性は、独立なランダムネス由来のノイズとは違っているので、単に従属変数に追加でノイズ項が加わっていると仮定するのはナイーブである。従って、リターンを直接予測してポジションを取るよりも、適切株価を誤差つきで計算して、その下限よりも現在株価が安い時だけ買うという保守的アプローチの方が成功可能性が高いだろう。