表形式の財務データを使用した信用リスク監視のための一貫したディープラーニング

注釈 





機械学習は、銀行業界の経済的損失を防ぐ上で重要な役割を果たします。おそらく最も差し迫った予測の課題は、信用リスク(債務不履行のリスク)を評価することです。このようなリスクは、年間数十億ドルの損失につながる可能性があります。今日、信用リスクの予測における機械学習の利点のほとんどは、勾配強化デシジョンツリーモデルによるものです。ただし、これらの利点は、新しいデータソースやハイテクで柔軟な機能によってサポートされていない場合、減少し始めます。この記事では、複雑な監視を必要とせず、新しいモデルの入力に依存しないディープラーニングを使用して、信用リスク評価への新しいアプローチを作成する試みを紹介します。特別なリソースを必要とせずに、財務データの時系列を使用する、深い反復的で因果的な畳み込みニューラルネットワークで使用するクレジットカードトランザクションをフェッチするための新しい方法を提案します。一時的な畳み込みネットワークを使用したディープラーニングへのシーケンシャルアプローチが、参照の一貫性のないツリーモデルを上回り、大幅な経済的節約と信用リスクの早期発見を達成したことを示します。また、提案されたサンプリング手法により、シーケンスをメモリに効率的に保存し、それらを迅速なオンライントレーニングと本番環境に使用できる、本番環境で使用するためのアプローチの可能性を示します。特別なリソース要件なしで、財務データの時系列を使用します。一時的な畳み込みネットワークを使用したディープラーニングへのシーケンシャルアプローチが、参照の一貫性のないツリーモデルを上回り、大幅な経済的節約と信用リスクの早期発見を達成したことを示します。また、提案されたサンプリング手法により、シーケンスをメモリに効率的に保存し、それらを迅速なオンライントレーニングと本番環境に使用できる、本番環境で使用するためのアプローチの可能性を示します。特別なリソース要件なしで、財務データの時系列を使用します。一時的な畳み込みネットワークを使用したディープラーニングへのシーケンシャルアプローチが、参照の一貫性のないツリーモデルを上回り、大幅な経済的節約と信用リスクの早期発見を達成したことを示します。また、提案されたサンプリング手法により、シーケンスをメモリに効率的に保存し、それらを迅速なオンライントレーニングと制作に使用できる、本番環境で使用するためのアプローチの可能性を示します。大幅な経済的節約と信用リスクの早期発見を達成しました。また、提案されたサンプリング手法により、シーケンスをメモリに効率的に保存し、それらを迅速なオンライントレーニングと本番環境に使用できる、本番環境で使用するためのアプローチの可能性を示します。大幅な経済的節約と信用リスクの早期発見を達成した。また、提案されたサンプリング手法により、シーケンスをメモリに効率的に保存し、それらを迅速なオンライントレーニングと制作に使用できる、本番環境で使用するためのアプローチの可能性を示します。 





KEYWORDS credit risk, tabular data, credit card transactions, recurrent neural networks, temporal convolutional networks 





1.   





  ,    ,   ,     (, ). ,   [24]. 





(GBDTs), , [10]. ,          .  , ,      , , . . -,   , . -,    . , - ( ) -  , , (, [6]). 





, ,    . ,  GBDT, ,    (TCN)  . , , . - . 





        [9, 23],   [3, 26] [1,19]. ,    , (RNN) TCN, . , ,      .  , , ,  « » ,  / . ,  ,     -.     - . 





 , , . , ( )   -. ,   . , , - . 





2.  





2.1.   





, . , () 1,5   . 





2.1.1. .   . , , ,    ()  , 127    . : ( , . .) ( , . .).  ,   . - . 





2.1.2.  .   15 , 2016 2017 .     , 45   . , ( ) . 





      6   ( )  , 2017 2018 ,     . , . 2%   . , - - , - , .





2.1.3.  . ,  , . , .   : 





  •    ( / ) 10 ,   ; 





  •  «»     , , , ( GBDT), , , : (s1, s2, . . . , sk ), si > sj , for all i > j,   : 





x - , xˆ-  ( . . 1); 





•    - [5]; 





•  ()  , [18]   :  





  1.     ; 





  2.     1, : 





G - , | G | - , k – -, ( k = 30), y - .  





• ,    . 





図1:GBDTパーティショニングを使用した圧縮。
1: GBDT.

2.2.   





   . . ,     ,    - . , , ,     . 





 – . -, , - . -, , 11 .   ( . 2).    ,       (  10 ). 





図2:選択したトランザクションのシーケンス。
2: .

     . ,    – , , . , . 





     12 , . . 





2.3.   





, ,  GBDT .  GBDT , . ,  (  TabNet) . 





2.3.1 . (MLP) . MLP /   .   "" , MLP [13]. , , , . 





2.3.2. TabNet. TabNet -   ,  [2].   ,    .  TabNet  : . , .    , ,    , (. 3). , , .





図3:TabNetの決定ステップのアーキテクチャ。
3: TabNet.

2.3.3.  . , GBDT: . RNNS , . 





 long short-term memory (LSTM) RNN [14],   RNN.   ,   . RNN,  zoneout [17]. , zoneout  RNN. , , zoneout   .  zoneout  , RNN . LSTM  zoneout  .4. 





図4:12か月のトランザクションデータに基づいて信用リスク(つまり、クレジットカード債務のデフォルト)を予測するための単層LSTMアーキテクチャ。
4: LSTM (. . ) 12- .

2.3.4   . RNN , , . ,  RNN  [21]. , [4, 7, 11, 15, 20]. , , ,  RNNs. , . , t t (. . 5) [25]. 





, , ,    (TCN) [4]. , TCNS  (), , ,    [27]. TCNS ,    , (. . 6), [12]. TCN  , .  deep TCN . 7. 





図6:TCNブロック。
6: TCN.

2.4.   





2.4.1. . , /, ,  SigOpt [8]. , - . , 5- MLP, 3- LSTM ( 2 LSTM ) 6- TCN ( 2 TCN 4 ). ( ~0,2). 





2.4.2. . [16] [22]. - ( = 0,9, 0,999), , . - , . 





2.4.3.  . , . , 512 0,8, 1e-4, , . 





2.4.4 . .   ,   .   ( = (2*AUROC) - 1). , , - . - . 





3.  





GBDT 1.    (  15 000 ) , . 





表1:一般人口と多額の債務を抱える人口(15,000ドル以上)に対する個人モデルとアンサンブルモデルの有効性
1: ( 15 . .)

, LSTM TCN,   GBDT. MLP  TabNet  . , , LSTM TCN GBDT, , , . ,   , , , (  ). 





表2:選択したモデルのパフォーマンスをデフォルトの日付で割ったもの。
2: , .

3.1.  .  , , . ,    , . 





LSTM TCN GBDT ( ,  , ) 2. ,  GBDT, -, ( 6 ),  , , ( 7-12 ) ( 13-18 ), , . 





3.2.  .  ( ). 8 , , , , , « » ,  . LSTM, TCN 12 , TCN LSTM .    , ,    . , 2016 . 





図8:毎月のトランザクション数が増えると、パフォーマンスが向上します。
8: .

3.3. -.  , , LSTM TCN -. , , 2017 . . 9, . , , . , . 





図9:オンライントレーニング(つまり、入力データを使用して重みを段階的に調整する)は、トレーニング前に小さなランダム値で重みを再初期化するよりも優れたパフォーマンス結果をもたらしました。
9: - (. . ) .

3.4.  .  TCN LSTM ,   . NVDIA Tesla V100, ~30 , TCN - 512 , ~50   LSTM. , TCN , , LSTM. 





, LSTM , TCN. Bai et al. [4], LSTM / , . , TCN . ,   1 , , ( 10 ). , , , , (TCN) (LSTM). 





4. . 





, , , . . 





, . , TCN . , ,    -. 





, , LSTM TCN. , GBDT    ,  . , - ( ) . 





- , ,    , , . , , . , . 





[1] Peter Martey Addo, Dominique Guegan, and Bertrand Hassani. 2018. Credit

risk analysis using machine and deep learning models. Risks 6, 2 (2018), 38.

https://doi.org/10.3390/risks6020038







[2] Sercan O. Arik and Tomas Pfister. 2019. TabNet: Attentive Interpretable Tabular

Learning. (2019). arXiv:1908.07442







[3] Dmitrii Babaev, Alexander Tuzhilin, Maxim Savchenko, and Dmitrii Umerenkov. E.T.-Rnn: Applying deep learning to credit loan applications. In Proceedings of the ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2183–2190. https://doi.org/10.1145/3292500.3330693





[4] Shaojie Bai, J. Zico Kolter, and Vladlen Koltun. 2018. An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling. (2018). arXiv:1803.01271





[5] George EP Box and David R Cox. 1964. An analysis of transformations. Journal of the Royal Statistical Society: Series B (Methodological) 26, 2 (1964), 211–243.





[6] Tianqi Chen and Carlos Guestrin. 2016. Xgboost: A scalable tree boosting system. In Proceedings of the 22nd ACM SIGKDD Unternational Conference on Knowledge Discovery and Data Mining. 785–794.





[7] Yann N Dauphin, Angela Fan, Michael Auli, and David Grangier. 2017. Language modeling with gated convolutional networks. In Proceedings of the 34th International Conference on Machine Learning. 933–941.





[8] Ian Dewancker, Michael McCourt, and Scott Clark. 2015. Bayesian Optimization Primer.





[9] Dmitry Efimov, Di Xu, Alexey Nefedov, and Archana Anandakrishnan. 2019. Using Generative Adversarial Networks to Synthesize Artificial Financial Datasets. In 33rd Conference on Neural Information Processing Systems, Workshop on Robust AI in Financial Services.





[10] Jerome H. Friedman. 2001. Greedy function approximation: A gradient boosting machine. Annals of Statistics 29, 5 (2001), 1189–1232. https://doi.org/10.2307/ 2699986





[11] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N Dauphin. Convolutional sequence to sequence learning. In Proceedings of the 34th International Conference on Machine Learning. 1243–1252.





[12] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. 2016. Identity mappings in deep residual networks, Vol. 9908 LNCS. Springer Verlag, 630–645. https://doi.org/10.1007/978-3-319-46493-0_38 arXiv:1603.05027





[13] Geoffrey E Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, and Ruslan R Salakhutdinov. 2012. Improving neural networks by preventing coadaptation of feature detectors. arXiv:1207.0580 (2012).





[14] Sepp Hochreiter and Jürgen Schmidhuber. 1997. Long Short-Term Memory. Neural Computation 9, 8 (1997), 1735–1780. https://doi.org/10.1162/neco.1997.9. 8.1735





[15] Nal Kalchbrenner, Lasse Espeholt, Karen Simonyan, Aaron van den Oord, Alex Graves, and Koray Kavukcuoglu. 2016. Neural machine translation in linear time. arXiv preprint arXiv:1610.10099 (2016).





[16] Diederik P Kingma and Jimmy Ba. 2014. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980 (2014).





[17] David Krueger, Tegan Maharaj, János Kramár, Mohammad Pezeshki, Nicolas Ballas, Nan Rosemary Ke, Anirudh Goyal, Yoshua Bengio, Aaron Courville, and Chris Pal. 2017. Zoneout: Regularizing rnns by randomly preserving hidden activations. In Proceedings of the 5th International Conference on Learning Representations. arXiv:1606.01305





[18] Christopher D Manning, Prabhakar Raghavan, and Hinrich Schütze. 2008. Introduction to information retrieval. Cambridge University Press. 234–265 pages.





[19] Loris Nanni and Alessandra Lumini. 2009. An experimental comparison of ensemble of classifiers for bankruptcy prediction and credit scoring. Expert Systems with Applications 36, 2 (2009), 3028–3033. https://doi.org/10.1016/j.eswa. 2008.01.018





[20] Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, and Koray Kavukcuoglu. Wavenet: A generative model for raw audio. arXiv preprint arXiv:1609.03499 (2016).





[21] Razvan Pascanu, Tomas Mikolov, and Yoshua Bengio. 2013. On the difficulty of training recurrent neural networks. In Proceedings of the 30th International Conference on Machine Learning. 1310–1318.





[22] Lutz Prechelt. 1998. Early stopping-but when? In Neural Networks: Tricks of the trade. Springer, 55–69.





[23] Abhimanyu Roy, Jingyi Sun, Robert Mahoney, Loreto Alonzi, Stephen Adams, and Peter Beling. 2018. Deep learning detecting fraud in credit card transactions. In Proceedings of the Systems and Information Engineering Design Symposium,129–134. https://doi.org/10.1109/SIEDS.2018.8374722





[24] Lyn C Thomas, David B Edelman, and Jonathan N Crook. 2002. Credit scoring and its applications. SIAM.





[25] Alex Waibel, Toshiyuki Hanazawa, Geoffrey Hinton, Kiyohiro Shikano, and Kevin J Lang. 1989. Phoneme recognition using time-delay neural networks. IEEE transactions on acoustics, speech, and signal processing 37, 3 (1989), 328–339.





[26] Chongren Wang、Dongmei Han、Qigang Liu、およびSuyuanLuo。2018.アテンションメカニズムLSTMを使用したピアツーピア貸付のクレジットスコアリングのためのディープラーニングアプローチ。IEEE Access 7(2018)、2161-2168。





[27]フィッシャー・ユーとウラドレン・コルトン。2016.拡張畳み込みによるマルチスケールコンテキスト集約。表現の学習に関する第4回国際会議の議事録。arXiv:1511.07122








All Articles