論文の概要: Hybrid Federated and Split Learning for Privacy Preserving Clinical Prediction and Treatment Optimization
- arxiv url: http://arxiv.org/abs/2602.15304v1
- Date: Tue, 17 Feb 2026 01:57:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.956528
- Title: Hybrid Federated and Split Learning for Privacy Preserving Clinical Prediction and Treatment Optimization
- Title(参考訳): 臨床予測と治療最適化のためのハイブリッドフェデレーションと分割学習
- Authors: Farzana Akter, Rakib Hossain, Deb Kanna Roy Toushi, Mahmood Menon Khan, Sultana Amin, Lisan Al Amin,
- Abstract要約: 共同臨床決定支援は、機関間の患者レベルの記録のプールを防ぐガバナンスとプライバシ規則によって制限されることが多い。
本稿では,フェデレートラーニング(FL)とスプリットラーニング(SL)を組み合わせたハイブリッドプライバシ保存フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative clinical decision support is often constrained by governance and privacy rules that prevent pooling patient-level records across institutions. We present a hybrid privacy-preserving framework that combines Federated Learning (FL) and Split Learning (SL) to support decision-oriented healthcare modeling without raw-data sharing. The approach keeps feature-extraction trunks on clients while hosting prediction heads on a coordinating server, enabling shared representation learning and exposing an explicit collaboration boundary where privacy controls can be applied. Rather than assuming distributed training is inherently private, we audit leakage empirically using membership inference on cut-layer representations and study lightweight defenses based on activation clipping and additive Gaussian noise. We evaluate across three public clinical datasets under non-IID client partitions using a unified pipeline and assess performance jointly along four deployment-relevant axes: factual predictive utility, uplift-based ranking under capacity constraints, audited privacy leakage, and communication overhead. Results show that hybrid FL-SL variants achieve competitive predictive performance and decision-facing prioritization behavior relative to standalone FL or SL, while providing a tunable privacy-utility trade-off that can reduce audited leakage without requiring raw-data sharing. Overall, the work positions hybrid FL-SL as a practical design space for privacy-preserving healthcare decision support where utility, leakage risk, and deployment cost must be balanced explicitly.
- Abstract(参考訳): 共同臨床決定支援は、機関間の患者レベルの記録のプールを防ぐガバナンスとプライバシ規則によって制限されることが多い。
本稿では,フェデレートラーニング(FL)とスプリットラーニング(SL)を組み合わせたハイブリッドプライバシ保存フレームワークを提案する。
このアプローチは、クライアントに特徴抽出トランクを保持し、コーディネートサーバ上で予測ヘッドをホストし、共有表現学習を可能にし、プライバシコントロールの適用が可能な明示的なコラボレーション境界を公開する。
分散トレーニングが本質的にプライベートであると仮定するのではなく、カット層表現に対するメンバシップ推論を用いて、経験的に漏洩を監査し、アクティベーションクリッピングと付加ガウス雑音に基づく軽量防御の研究を行う。
非IIDクライアントパーティション下での3つの公開臨床データセットを統一パイプラインを用いて評価し、実際の予測ユーティリティ、キャパシティ制約下でのアップリフトベースランキング、監査されたプライバシリーク、通信オーバーヘッドの4つのデプロイ関連軸に沿って、パフォーマンスを共同評価する。
その結果、ハイブリッドFL-SLは、データ共有を必要とせずに、監査された漏洩を低減できる調整可能なプライバシユーティリティトレードオフを提供しながら、スタンドアロンFLまたはSLと比較して、競合的な予測性能と決定に直面する優先順位付け行動を実現することがわかった。
全体として、ハイブリッドFL-SLは、ユーティリティ、リークリスク、デプロイメントコストを明示的にバランスさせなければならない、プライバシ保護型ヘルスケア意思決定支援の実践的な設計スペースとして位置づけられている。
関連論文リスト
- Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Inclusive, Differentially Private Federated Learning for Clinical Data [1.8386868491525161]
Federated Learning(FL)は、センシティブな患者データを集中化せずに、臨床AIモデルをトレーニングするための有望なアプローチを提供する。
実際の採用は、プライバシやリソース制約、コンプライアンスに関する課題によって妨げられています。
本稿では,定量的クライアントコンプライアンススコアに基づいて適応的にノイズを調整することでDPを向上する新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-28T08:36:21Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - BACSA: A Bias-Aware Client Selection Algorithm for Privacy-Preserving Federated Learning in Wireless Healthcare Networks [0.5524804393257919]
本稿では,ユーザのバイアスを検知し,バイアスプロファイルに基づいてクライアントを戦略的に選択するBias-Aware Client Selection Algorithm (BACSA)を提案する。
BACSAは、Quality of Service(QoS)、プライバシ、セキュリティが最重要である、機密性の高い医療アプリケーションに適している。
論文 参考訳(メタデータ) (2024-11-01T21:34:43Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Differentially Private Distributed Inference [2.4401219403555814]
臨床試験に協力する医療センターは、知識共有と機密データ保護のバランスを取る必要がある。
情報漏洩を制御するために差分プライバシー(DP)を用いてこの問題に対処する。
エージェントはログリニアルールを通じて信条統計を更新し、DPノイズは信頼性の高い識別性と厳格な性能保証を提供する。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。