論文の概要: Evidential Trust-Aware Model Personalization in Decentralized Federated Learning for Wearable IoT
- arxiv url: http://arxiv.org/abs/2512.19131v1
- Date: Mon, 22 Dec 2025 08:26:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.669056
- Title: Evidential Trust-Aware Model Personalization in Decentralized Federated Learning for Wearable IoT
- Title(参考訳): ウェアラブルIoTのための分散型フェデレーション学習における証拠信頼度を考慮したモデルパーソナライゼーション
- Authors: Murtaza Rangwala, Richard O. Sinnott, Rajkumar Buyya,
- Abstract要約: 分散連合学習(DFL)は、一元的な調整なしにエッジデバイス間で協調的なモデルトレーニングを可能にする。
本稿では,DFLにおける信頼を意識したモデルパーソナライゼーションを実現するために,明らかなディープラーニングを活用するフレームワークであるMurmuraを紹介する。
- 参考スコア(独自算出の注目度): 16.700861880781087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized federated learning (DFL) enables collaborative model training across edge devices without centralized coordination, offering resilience against single points of failure. However, statistical heterogeneity arising from non-identically distributed local data creates a fundamental challenge: nodes must learn personalized models adapted to their local distributions while selectively collaborating with compatible peers. Existing approaches either enforce a single global model that fits no one well, or rely on heuristic peer selection mechanisms that cannot distinguish between peers with genuinely incompatible data distributions and those with valuable complementary knowledge. We present Murmura, a framework that leverages evidential deep learning to enable trust-aware model personalization in DFL. Our key insight is that epistemic uncertainty from Dirichlet-based evidential models directly indicates peer compatibility: high epistemic uncertainty when a peer's model evaluates local data reveals distributional mismatch, enabling nodes to exclude incompatible influence while maintaining personalized models through selective collaboration. Murmura introduces a trust-aware aggregation mechanism that computes peer compatibility scores through cross-evaluation on local validation samples and personalizes model aggregation based on evidential trust with adaptive thresholds. Evaluation on three wearable IoT datasets (UCI HAR, PAMAP2, PPG-DaLiA) demonstrates that Murmura reduces performance degradation from IID to non-IID conditions compared to baseline (0.9% vs. 19.3%), achieves 7.4$\times$ faster convergence, and maintains stable accuracy across hyperparameter choices. These results establish evidential uncertainty as a principled foundation for compatibility-aware personalization in decentralized heterogeneous environments.
- Abstract(参考訳): 分散連合学習(DFL)は、単一障害点に対するレジリエンスを提供するため、一元的に調整することなく、エッジデバイス間で協調的なモデルトレーニングを可能にする。
ノードは、互換性のあるピアと選択的に協調しながら、そのローカル分布に適合したパーソナライズされたモデルを学ぶ必要がある。
既存のアプローチでは、誰もうまく適合しない単一のグローバルモデルを適用するか、真に互換性のないデータ分布を持つピアと貴重な相補的知識を持つピアを区別できないヒューリスティックなピア選択メカニズムに頼るかのいずれかである。
本稿では,DFLにおける信頼を意識したモデルパーソナライゼーションを実現するために,明らかなディープラーニングを活用するフレームワークであるMurmuraを紹介する。
我々の重要な洞察は、ディリクレに基づく明らかなモデルからのエピステマティックな不確実性は、直接的にピア互換性を示すことである: ピアのモデルがローカルデータを評価したときのエピステマティックな不確実性は、分散ミスマッチを示し、ノードは、選択的なコラボレーションを通じてパーソナライズされたモデルを維持しながら、非互換な影響を排除できる。
Murmura氏は、局所的な検証サンプルの相互評価を通じてピア互換性スコアを計算し、適応しきい値付き明示的信頼に基づくモデル集約をパーソナライズする、信頼を意識したアグリゲーションメカニズムを紹介した。
3つのウェアラブルIoTデータセット(UCI HAR, PAMAP2, PPG-DaLiA)の評価では、Murmuraはベースライン(0.9% vs. 19.3%)と比較してIDDから非IID条件へのパフォーマンス劣化を低減し、7.4$\times$高速収束を実現し、ハイパーパラメータ選択間の安定した精度を維持している。
これらの結果は、分散化された異種環境における互換性を意識したパーソナライゼーションの原則として、明らかな不確実性を確立している。
関連論文リスト
- Heterogeneous Multisource Transfer Learning via Model Averaging for Positive-Unlabeled Data [2.030810815519794]
本研究では,異種データソースからの情報を直接データ共有なしで統合するトランスファー学習フレームワークを提案する。
各ソースドメインタイプに対して、調整されたロジスティック回帰モデルを実行し、平均化によって知識をPUターゲットドメインに転送する。
提案手法は,特にラベル付きデータや異種環境において,予測精度とロバスト性において,他の比較手法よりも優れる。
論文 参考訳(メタデータ) (2025-11-14T03:15:31Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Enhancing Federated Survival Analysis through Peer-Driven Client Reputation in Healthcare [1.2289361708127877]
Federated Learningは、患者のデータのプライバシを損なうことなく、協調的なモデルトレーニングを可能にすることで、デジタルヘルスを大いに約束する。
本稿では、分散化されたピアフィードバックとクラスタリングに基づくノイズハンドリングを統合した、フェデレーション型医療のためのピア駆動評価機構を提案する。
クライアント側のモデル更新に差分プライバシを適用することで、評判計算中に機密情報が保護されることが保証される。
論文 参考訳(メタデータ) (2025-05-22T03:49:51Z) - FedCTTA: A Collaborative Approach to Continual Test-Time Adaptation in Federated Learning [0.956984177686999]
Federated Learning (FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
FLモデルは、トレーニングとデプロイメントの間の分散シフトによって、しばしばパフォーマンスが低下する。
我々は、フェデレートされた適応のためのプライバシー保護と計算効率のよいフレームワークであるFederated Continual Test-Time Adaptation (FedCTTA)を提案する。
論文 参考訳(メタデータ) (2025-05-19T18:29:51Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Towards Communication-Efficient Adversarial Federated Learning for Robust Edge Intelligence [43.4791103826602]
本稿では,事前学習モデルを用いて,コミュニケーション効率の高い対人学習(AFL)を実現することを目的とする。
クリーン画像と逆画像の両方に事前学習したモデルからの知識を活用することにより、事前学習されたモデル誘導型AFLフレームワークを提案する。
実験の結果,PM-AFLベースのフレームワークは他の手法よりも優れているだけでなく,通信効率も向上していることがわかった。
論文 参考訳(メタデータ) (2025-01-25T16:04:29Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。