論文の概要: Temporal Knowledge Distillation for Time-Sensitive Financial Services
Applications
- arxiv url: http://arxiv.org/abs/2312.16799v1
- Date: Thu, 28 Dec 2023 03:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 17:46:17.077235
- Title: Temporal Knowledge Distillation for Time-Sensitive Financial Services
Applications
- Title(参考訳): 時間知覚型金融サービスアプリケーションのための時間的知識蒸留
- Authors: Hongda Shen and Eren Kurshan
- Abstract要約: 異常検出は、金融犯罪検出詐欺やサイバーセキュリティなどの主要なコンプライアンスやリスク機能に頻繁に使用される。
最新のデータパターンでモデルを再トレーニングすることで、急激な変更に追いつくことは、過去のパターンと現在のパターンのバランスをとる上でのプレッシャーをもたらす。
提案手法は、モデル性能を改善しながら、再トレーニング時間に利点をもたらす。
- 参考スコア(独自算出の注目度): 7.1795069620810805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting anomalies has become an increasingly critical function in the
financial service industry. Anomaly detection is frequently used in key
compliance and risk functions such as financial crime detection fraud and
cybersecurity. The dynamic nature of the underlying data patterns especially in
adversarial environments like fraud detection poses serious challenges to the
machine learning models. Keeping up with the rapid changes by retraining the
models with the latest data patterns introduces pressures in balancing the
historical and current patterns while managing the training data size.
Furthermore the model retraining times raise problems in time-sensitive and
high-volume deployment systems where the retraining period directly impacts the
models ability to respond to ongoing attacks in a timely manner. In this study
we propose a temporal knowledge distillation-based label augmentation approach
(TKD) which utilizes the learning from older models to rapidly boost the latest
model and effectively reduces the model retraining times to achieve improved
agility. Experimental results show that the proposed approach provides
advantages in retraining times while improving the model performance.
- Abstract(参考訳): 金融サービス業界では異常検出がますます重要な機能になりつつある。
異常検出は、金融犯罪検出詐欺やサイバーセキュリティなどの主要なコンプライアンスやリスク機能に頻繁に使用される。
特に不正検出のような敵環境における基礎となるデータパターンの動的な性質は、機械学習モデルに深刻な課題をもたらす。
最新のデータパターンでモデルを再トレーニングすることで、急激な変更に追いつくには、トレーニングデータサイズを管理しながら、過去のパターンと現在のパターンのバランスをとる圧力が伴う。
さらに、モデルのリトレーニング時間は、リトレーニング期間が、継続的な攻撃にタイムリーに応答するモデル能力に直接影響する、時間に敏感な高ボリュームデプロイメントシステムにおいて問題を引き起こす。
本研究では,古いモデルからの学習を活かし,最新のモデルを迅速に促進し,モデルのリトレーニング時間を効果的に短縮し,機敏性を向上させる,時間的知識蒸留に基づくラベル拡張手法(tkd)を提案する。
実験の結果,提案手法はモデル性能を向上しつつ,リトレーニング時間に利点をもたらすことがわかった。
関連論文リスト
- Robustness-Congruent Adversarial Training for Secure Machine Learning
Model Updates [13.911586916369108]
機械学習モデルにおける誤分類は、敵の例に対して堅牢性に影響を及ぼす可能性があることを示す。
この問題に対処するために,ロバストネス・コングロレント・逆行訓練という手法を提案する。
我々のアルゴリズムと、より一般的には、非回帰的制約で学習することは、一貫した推定器を訓練するための理論的に基底的なフレームワークを提供することを示す。
論文 参考訳(メタデータ) (2024-02-27T10:37:13Z) - EsaCL: Efficient Continual Learning of Sparse Models [10.227171407348326]
連続的な学習設定の主な課題は、以前に学習したタスクを実行する方法を忘れずに、タスクのシーケンスを効率的に学習することである。
本研究では,モデルの予測力に悪影響を及ぼすことなく,冗長なパラメータを自動生成する,スパースモデル(EsaCL)の効率的な連続学習法を提案する。
論文 参考訳(メタデータ) (2024-01-11T04:59:44Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Continual Learners are Incremental Model Generalizers [70.34479702177988]
本稿では,継続学習モデル(CL)が事前学習者に与える影響を幅広く研究する。
その結果, 微調整性能が著しく低下することなく, 表現の伝達品質が徐々に向上することがわかった。
本稿では,下流タスクの解法において,リッチなタスクジェネリック表現を保存できる新しい微調整方式GLobal Attention Discretization(GLAD)を提案する。
論文 参考訳(メタデータ) (2023-06-21T05:26:28Z) - On the Costs and Benefits of Adopting Lifelong Learning for Software
Analytics -- Empirical Study on Brown Build and Risk Prediction [17.502553991799832]
本稿では,ユビソフトにおける産業用ユースケースにおける生涯学習(LL)の利用について検討する。
LLは、新しいデータを使用して古いモデルを段階的に更新するインクリメンタルラーナを使用して、MLベースのソフトウェア分析ツールを継続的に構築し、メンテナンスするために使用される。
論文 参考訳(メタデータ) (2023-05-16T21:57:16Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - CausalAgents: A Robustness Benchmark for Motion Forecasting using Causal
Relationships [8.679073301435265]
既存のデータに摂動を適用することにより、モデルロバスト性の評価と改善のための新しいベンチマークを構築する。
我々はこれらのラベルを使用して、現場から非因果的エージェントを削除することでデータを摂動する。
非因果摂動下では, minADE の相対的な変化は, 原型と比較して25$-$38%である。
論文 参考訳(メタデータ) (2022-07-07T21:28:23Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Label Augmentation via Time-based Knowledge Distillation for Financial
Anomaly Detection [0.0]
金融異常検出ユースケースは、基礎となるパターンの動的性質のために深刻な課題に直面しています。
モデルが古いパターンから遠ざけられたり、トレーニングデータのサイズが継続的に大きくなるなど、急激な変更に追随する他の課題も伴います。
古いモデルからの学習を最新のものにするために,ラベル拡張手法を提案する。
論文 参考訳(メタデータ) (2021-01-05T18:24:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。