論文の概要: TriCon-SF: A Triple-Shuffle and Contribution-Aware Serial Federated Learning Framework for Heterogeneous Healthcare Data
- arxiv url: http://arxiv.org/abs/2506.16723v1
- Date: Fri, 20 Jun 2025 03:40:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.325266
- Title: TriCon-SF: A Triple-Shuffle and Contribution-Aware Serial Federated Learning Framework for Heterogeneous Healthcare Data
- Title(参考訳): TriCon-SF: 異種医療データのための3つのシャッフルとコントリビューションを意識したシリアルフェデレーション学習フレームワーク
- Authors: Yuping Yan, Yizhi Wang, Yuanshuai Li, Yaochu Jin,
- Abstract要約: TriCon-SFは、トリプルシャッフルとコントリビューション意識を統合する新しいシリアル・フェデレーション・ラーニングフレームワークである。
非IIDヘルスケアデータセットの実験では、TriCon-SFが標準シリアルおよび並列フェデレーション学習を精度と通信効率の両方で上回っていることが示されている。
- 参考スコア(独自算出の注目度): 22.044689597490123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Serial pipeline training is an efficient paradigm for handling data heterogeneity in cross-silo federated learning with low communication overhead. However, even without centralized aggregation, direct transfer of models between clients can violate privacy regulations and remain susceptible to gradient leakage and linkage attacks. Additionally, ensuring resilience against semi-honest or malicious clients who may manipulate or misuse received models remains a grand challenge, particularly in privacy-sensitive domains such as healthcare. To address these challenges, we propose TriCon-SF, a novel serial federated learning framework that integrates triple shuffling and contribution awareness. TriCon-SF introduces three levels of randomization by shuffling model layers, data segments, and training sequences to break deterministic learning patterns and disrupt potential attack vectors, thereby enhancing privacy and robustness. In parallel, it leverages Shapley value methods to dynamically evaluate client contributions during training, enabling the detection of dishonest behavior and enhancing system accountability. Extensive experiments on non-IID healthcare datasets demonstrate that TriCon-SF outperforms standard serial and parallel federated learning in both accuracy and communication efficiency. Security analysis further supports its resilience against client-side privacy attacks.
- Abstract(参考訳): シリアルパイプライントレーニングは、通信オーバーヘッドの少ないクロスサイロフェデレーション学習において、データの均一性を扱うための効率的なパラダイムである。
しかし、集中集約がなくても、クライアント間のモデルを直接転送することは、プライバシー規則に違反し、グラデーションリークやリンク攻撃の影響を受けない。
さらに、受信したモデルを操作したり誤用したりするような、半正直なクライアントや悪意のあるクライアントに対するレジリエンスを確保することは、特にヘルスケアのようなプライバシーに敏感なドメインでは大きな課題である。
これらの課題に対処するために,三重シャッフルとコントリビューションの認識を統合した,新しい連立学習フレームワークTriCon-SFを提案する。
TriCon-SFでは、モデルレイヤ、データセグメント、トレーニングシーケンスをシャッフルすることで、決定論的学習パターンを破り、潜在的な攻撃ベクトルを妨害し、プライバシと堅牢性を向上する、3つのレベルのランダム化が導入されている。
並行して、Shapley値メソッドを活用して、トレーニング中のクライアントコントリビューションを動的に評価し、不正な振る舞いの検出とシステム説明責任の向上を可能にします。
非IID医療データセットに対する大規模な実験は、TriCon-SFが標準シリアルおよび並列フェデレーション学習を精度と通信効率の両方で上回ることを示した。
セキュリティ分析は、クライアント側のプライバシ攻撃に対するレジリエンスをさらにサポートする。
関連論文リスト
- Enhancing Federated Survival Analysis through Peer-Driven Client Reputation in Healthcare [1.2289361708127877]
Federated Learningは、患者のデータのプライバシを損なうことなく、協調的なモデルトレーニングを可能にすることで、デジタルヘルスを大いに約束する。
本稿では、分散化されたピアフィードバックとクラスタリングに基づくノイズハンドリングを統合した、フェデレーション型医療のためのピア駆動評価機構を提案する。
クライアント側のモデル更新に差分プライバシを適用することで、評判計算中に機密情報が保護されることが保証される。
論文 参考訳(メタデータ) (2025-05-22T03:49:51Z) - Securing Genomic Data Against Inference Attacks in Federated Learning Environments [0.31570310818616687]
Federated Learning(FL)は、直接的なデータ共有なしに、分散されたゲノムデータセット間で機械学習モデルを協調的にトレーニングする、有望なフレームワークを提供する。
このアプローチはデータの局所性を保っているが、個人のプライバシーを侵害する可能性のある高度な推論攻撃の影響を受けやすい。
本研究では,合成ゲノムデータを用いてフェデレートされた学習環境をシミュレートし,その脆弱性を3つの攻撃ベクトルに評価する。
論文 参考訳(メタデータ) (2025-05-12T02:36:50Z) - Robust Federated Learning Against Poisoning Attacks: A GAN-Based Defense Framework [0.6554326244334868]
フェデレートラーニング(FL)は、生データを共有せずに、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,クライアントの更新を認証するために,CGAN(Conditional Generative Adversarial Network)を利用してサーバで合成データを生成する,プライバシ保護型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FedGT: Identification of Malicious Clients in Federated Learning with Secure Aggregation [69.75513501757628]
FedGTは、フェデレーション学習における悪意のあるクライアントを安全なアグリゲーションで識別するための新しいフレームワークである。
我々はPillutlaらによって最近提案された幾何的中央値に基づいて,FedGTがプライベートロバストアグリゲーションアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。