論文の概要: Beyond the Pre-Service Horizon: Infusing In-Service Behavior for Improved Financial Risk Forecasting
- arxiv url: http://arxiv.org/abs/2509.06385v1
- Date: Mon, 08 Sep 2025 07:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.997022
- Title: Beyond the Pre-Service Horizon: Infusing In-Service Behavior for Improved Financial Risk Forecasting
- Title(参考訳): プレサービス・ホライゾンを超えて:金融リスク予測の改善のためのサービス内行動の注入
- Authors: Senhao Liu, Zhiyu Guo, Zhiyuan Ji, Yueguo Chen, Yateng Tang, Yunhai Wang, Xuehao Zheng, Xiang Ao,
- Abstract要約: 本稿では,多粒度知識蒸留(Multi-Granularity Knowledge Distillation)を提案する。
サービス内ユーザ行動データを統合することで、サービスの事前リスク予測を改善することを目指している。
- 参考スコア(独自算出の注目度): 16.63575699710021
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Typical financial risk management involves distinct phases for pre-service risk assessment and in-service default detection, often modeled separately. This paper proposes a novel framework, Multi-Granularity Knowledge Distillation (abbreviated as MGKD), aimed at improving pre-service risk prediction through the integration of in-service user behavior data. MGKD follows the idea of knowledge distillation, where the teacher model, trained on historical in-service data, guides the student model, which is trained on pre-service data. By using soft labels derived from in-service data, the teacher model helps the student model improve its risk prediction prior to service activation. Meanwhile, a multi-granularity distillation strategy is introduced, including coarse-grained, fine-grained, and self-distillation, to align the representations and predictions of the teacher and student models. This approach not only reinforces the representation of default cases but also enables the transfer of key behavioral patterns associated with defaulters from the teacher to the student model, thereby improving the overall performance of pre-service risk assessment. Moreover, we adopt a re-weighting strategy to mitigate the model's bias towards the minority class. Experimental results on large-scale real-world datasets from Tencent Mobile Payment demonstrate the effectiveness of our proposed approach in both offline and online scenarios.
- Abstract(参考訳): 典型的な金融リスク管理には、サービス前リスクアセスメントとサービス内デフォルト検出のための異なるフェーズが含まれており、しばしば個別にモデル化される。
本稿では,サービス内ユーザ行動データの統合によるサービス前リスク予測の改善を目的とした,新しいフレームワークであるMulti-Granularity Knowledge Distillation(MGKD)を提案する。
MGKDは知識蒸留の考え方に従い、教師モデルは歴史的サービス内データに基づいて訓練され、学生モデルは前サービスデータに基づいて訓練される。
教師モデルは、サービス内データから派生したソフトラベルを使用することで、学生モデルがサービスのアクティベーション前にリスク予測を改善するのに役立つ。
一方, 粗粒度, 細粒度, 自己蒸留を含む多粒度蒸留戦略を導入し, 教師モデルと学生モデルの表現と予測の整合を図る。
このアプローチは、デフォルトケースの表現を補強するだけでなく、教師から学生モデルへのデフォルトのパターンに関連する重要な行動パターンの伝達を可能にし、サービス前リスクアセスメントの全体的なパフォーマンスを向上させる。
さらに、マイノリティクラスに対するモデルのバイアスを軽減するために、再重み付け戦略を採用します。
Tencent Mobile Paymentによる大規模な実世界のデータセットの実験結果は、オフラインとオンラインの両方のシナリオで提案したアプローチの有効性を実証している。
関連論文リスト
- Predicting Student Dropout Risk With A Dual-Modal Abrupt Behavioral Changes Approach [11.034576265432168]
Dual-Modal Multiscale Sliding Window (DMSW) モデルは,学術的パフォーマンスと行動データを統合し,最小限のデータを用いて行動パターンをキャプチャする。
DMSWモデルでは従来の手法に比べて予測精度が15%向上し,高リスクの生徒を早期に特定できるようになった。
これらの知見は、ドロップアウト予測における理論と実践のギャップを埋め、教育者は学生の維持と成果を高める革新的なツールとなる。
論文 参考訳(メタデータ) (2025-05-16T11:02:55Z) - Privacy-Preserved Automated Scoring using Federated Learning for Educational Research [1.2556373621040728]
本稿では,教育評価の自動評価のための統合学習(FL)フレームワークを提案する。
我々は,2つの最先端FL手法と集中学習ベースラインに対して,我々のモデルをベンチマークする。
その結果,本モデルが最も精度が高い(94.5%)ことが示唆された。
論文 参考訳(メタデータ) (2025-03-12T19:06:25Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - Bias Mitigation in Fine-tuning Pre-trained Models for Enhanced Fairness
and Efficiency [26.86557244460215]
新しいタスクにおけるバイアスを軽減するために特別に設計された、効率的で堅牢な微調整フレームワークを導入します。
我々の経験的分析は、異なる人口集団の予測に影響を与える事前学習モデルのパラメータが異なることを示している。
我々は、人口集団間でフィッシャー情報を用いて決定された、これらの影響力のある重みの重要性を中和する伝達学習戦略を採用している。
論文 参考訳(メタデータ) (2024-03-01T16:01:28Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - Self-training via Metric Learning for Source-Free Domain Adaptation of Semantic Segmentation [3.1460691683829825]
教師なしのドメイン適応手法は、事前訓練されたソースドメインモデルとラベルなしのターゲットドメインデータを用いて、ターゲットドメインのモデルをトレーニングすることを目的としている。
従来の手法では、通常擬似ラベルによる自己学習が用いられており、予測信頼度に基づいてしきい値付けされることが多い。
本稿では,教師ネットワークからの全ての予測を用いて,学生ネットワークを訓練する平均教師モデルを導入することによって,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-08T12:20:35Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - A Framework for Understanding Model Extraction Attack and Defense [48.421636548746704]
我々は,モデルユーティリティとユーザとのトレードオフと,敵の視点によるプライバシについて検討する。
我々は,このようなトレードオフを定量化し,その理論的特性を分析し,最適な敵攻撃・防衛戦略を理解するための最適化問題を開発する。
論文 参考訳(メタデータ) (2022-06-23T05:24:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。