論文の概要: FSL-BDP: Federated Survival Learning with Bayesian Differential Privacy for Credit Risk Modeling
- arxiv url: http://arxiv.org/abs/2601.11134v1
- Date: Fri, 16 Jan 2026 09:48:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.437006
- Title: FSL-BDP: Federated Survival Learning with Bayesian Differential Privacy for Credit Risk Modeling
- Title(参考訳): FSL-BDP:信用リスクモデリングのためのベイズ微分プライバシーを用いたフェデレーション・サバイバルラーニング
- Authors: Sultan Amed, Tanmay Sen, Sayantan Banerjee,
- Abstract要約: 信用リスクモデルは金融機関にとって重要な意思決定支援ツールである。
従来のデフォルトの予測には2つの制限がある。
ベイズ微分プライバシーを用いたフェデレート・サバイバル学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0611737116137921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Credit risk models are a critical decision-support tool for financial institutions, yet tightening data-protection rules (e.g., GDPR, CCPA) increasingly prohibit cross-border sharing of borrower data, even as these models benefit from cross-institution learning. Traditional default prediction suffers from two limitations: binary classification ignores default timing, treating early defaulters (high loss) equivalently to late defaulters (low loss), and centralized training violates emerging regulatory constraints. We propose a Federated Survival Learning framework with Bayesian Differential Privacy (FSL-BDP) that models time-to-default trajectories without centralizing sensitive data. The framework provides Bayesian (data-dependent) differential privacy (DP) guarantees while enabling institutions to jointly learn risk dynamics. Experiments on three real-world credit datasets (LendingClub, SBA, Bondora) show that federation fundamentally alters the relative effectiveness of privacy mechanisms. While classical DP performs better than Bayesian DP in centralized settings, the latter benefits substantially more from federation (+7.0\% vs +1.4\%), achieving near parity of non-private performance and outperforming classical DP in the majority of participating clients. This ranking reversal yields a key decision-support insight: privacy mechanism selection should be evaluated in the target deployment architecture, rather than centralized benchmarks. These findings provide actionable guidance for practitioners designing privacy-preserving decision support systems in regulated, multi-institutional environments.
- Abstract(参考訳): 信用リスクモデル(Credit risk model)は、金融機関にとって重要な意思決定支援ツールであるが、データ保護規則(GDPR、CCPAなど)の厳格化は、これらのモデルが機関間学習の恩恵を受けているにもかかわらず、借り手データのクロスボーダー共有をますます禁止している。
バイナリ分類は、デフォルトタイミングを無視し、早期デフォルト(高損失)を遅延デフォルト(低損失)と同等に扱い、集中的なトレーニングは、新たな規制制約に違反している。
ベイズ微分プライバシー(FSL-BDP)を用いたフェデレーション・サバイバルラーニングフレームワークを提案する。
このフレームワークはベイジアン(データに依存した)差分プライバシー(DP)を保証すると同時に、機関が共同でリスクダイナミクスを学習できるようにする。
実世界の3つの信用データセット(LendingClub, SBA, Bondora)の実験は、フェデレーションがプライバシメカニズムの相対的効果を根本的に変えることを示している。
古典的なDPは中央集権的な設定ではベイジアンDPより優れているが、後者はフェデレーション(+7.0\% 対 +1.4\% )の恩恵が大きく、非民間のパフォーマンスのほぼ同等性を達成し、多くのクライアントで古典的なDPを上回っている。
プライバシーメカニズムの選択は、集中型ベンチマークではなく、ターゲットデプロイメントアーキテクチャで評価されるべきである。
これらの知見は, 規制・多施設環境におけるプライバシ保護型意思決定支援システムの設計に有効である。
関連論文リスト
- DP-RTFL: Differentially Private Resilient Temporal Federated Learning for Trustworthy AI in Regulated Industries [0.0]
本稿では,DP-RTFL(Disferially Private Resilient Temporal Federated Learning)を紹介する。
トレーニングの継続性、正確な状態回復、強力なデータプライバシを保証するように設計されている。
このフレームワークは、機密性の高い財務データを使用した信用リスク評価のような重要なアプリケーションに特に適している。
論文 参考訳(メタデータ) (2025-05-27T16:30:25Z) - Towards Trustworthy Federated Learning [26.25193909843069]
本稿では,フェデレートラーニング(FL)における3つの重要な課題に対処するための包括的枠組みを開発する。
ビザンチン攻撃に対するシステムの防御を改善するため,両面のノーム・ベース・スクリーニング機構を開発した。
また、ローカルクライアントの生データが好奇心をそそる関係者によって推測されるのを防ぐために、差分プライバシーベースのスキームも採用しています。
論文 参考訳(メタデータ) (2025-03-05T17:25:20Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - Differentially Private Federated Learning with Local Regularization and
Sparsification [23.15611313745278]
ユーザレベルのDP保証下でのフェデレート学習におけるモデル性能劣化の原因について検討する。
プライバシを犠牲にすることなくモデル品質を向上させるために,バウンドローカル更新正規化とローカルアップデートスパシフィケーションという2つの手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T02:48:16Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - How to Democratise and Protect AI: Fair and Differentially Private
Decentralised Deep Learning [43.73144358534933]
我々はFDPDDLと呼ばれる公平で差別的な分散型ディープラーニングフレームワークを構築している。
これにより、公正かつプライベートな方法で、より正確なローカルモデルを導出することができる。
FDPDDLは高い公正性を達成し、中央集権および分散フレームワークに匹敵する精度を示し、スタンドアロンフレームワークよりも優れた精度を提供する。
論文 参考訳(メタデータ) (2020-07-18T09:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。