論文の概要: Cost-TrustFL: Cost-Aware Hierarchical Federated Learning with Lightweight Reputation Evaluation across Multi-Cloud
- arxiv url: http://arxiv.org/abs/2512.20218v1
- Date: Tue, 23 Dec 2025 10:16:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.826123
- Title: Cost-TrustFL: Cost-Aware Hierarchical Federated Learning with Lightweight Reputation Evaluation across Multi-Cloud
- Title(参考訳): Cost-TrustFL: マルチクラウドにおける軽量評価による階層的階層型学習
- Authors: Jixiao Yang, Jinyu Chen, Zixiao Huang, Chengda Xu, Chi Zhang, Sijia Li,
- Abstract要約: マルチクラウド環境におけるフェデレーション学習は、非IIDデータ配信、悪意のある受入者検出、大規模なクラウド間通信コスト(外部料金)など、重要な課題に直面している。
本稿では,モデル性能と通信コストを協調的に最適化する階層型学習フレームワークであるCost-TrustFLについて述べる。
- 参考スコア(独自算出の注目度): 12.826922983028082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning across multi-cloud environments faces critical challenges, including non-IID data distributions, malicious participant detection, and substantial cross-cloud communication costs (egress fees). Existing Byzantine-robust methods focus primarily on model accuracy while overlooking the economic implications of data transfer across cloud providers. This paper presents Cost-TrustFL, a hierarchical federated learning framework that jointly optimizes model performance and communication costs while providing robust defense against poisoning attacks. We propose a gradient-based approximate Shapley value computation method that reduces the complexity from exponential to linear, enabling lightweight reputation evaluation. Our cost-aware aggregation strategy prioritizes intra-cloud communication to minimize expensive cross-cloud data transfers. Experiments on CIFAR-10 and FEMNIST datasets demonstrate that Cost-TrustFL achieves 86.7% accuracy under 30% malicious clients while reducing communication costs by 32% compared to baseline methods. The framework maintains stable performance across varying non-IID degrees and attack intensities, making it practical for real-world multi-cloud deployments.
- Abstract(参考訳): マルチクラウド環境におけるフェデレーション学習は、非IIDデータ配信、悪意のある受入者検出、大規模なクラウド間通信コスト(外部料金)など、重要な課題に直面している。
既存のByzantine-Robust手法は、主にモデル精度に焦点を当て、クラウドプロバイダ間のデータ転送の経済的意味を見落としている。
本稿では, モデル性能と通信コストを協調的に最適化し, 毒性攻撃に対する堅牢な防御を提供する階層型フェデレーション学習フレームワークであるCost-TrustFLを提案する。
本稿では,指数関数から線形への複雑性を低減し,軽量な評価評価を可能にする勾配に基づく近似シェープリー値計算法を提案する。
当社のコスト対応アグリゲーション戦略は、高価なクラウド間データ転送を最小限に抑えるために、クラウド内通信を優先します。
CIFAR-10とFEMNISTデータセットの実験では、Cost-TrustFLは悪意のあるクライアントの30%で86.7%の精度を達成し、通信コストはベースライン方式に比べて32%削減された。
このフレームワークは、様々な非IIDレベルの安定的なパフォーマンスと攻撃強度を維持しており、現実のマルチクラウドデプロイメントに実用的である。
関連論文リスト
- Reliable LLM-Based Edge-Cloud-Expert Cascades for Telecom Knowledge Systems [54.916243942641444]
大規模言語モデル(LLM)は、通信などの分野において、自動化の鍵となる存在として浮上している。
本研究では,問合せパイプラインによる意思決定を支援する,エッジクラウドに精通したLLMベースの知識システムについて検討する。
論文 参考訳(メタデータ) (2025-12-23T03:10:09Z) - Who to Trust? Aggregating Client Knowledge in Logit-Based Federated Learning [18.908324415611197]
フェデレーテッド・ラーニング(FL)は通常、モデルの重みや勾配を共有します。
LogitベースのFLは、パブリックプロキシデータセットで計算されたログのみを共有することで、このコストを削減する。
本稿では、単純な平均化、不確実性重み付け平均化、学習されたメタアグリゲータという3つのロジットアグリゲーション手法を紹介し、比較する。
論文 参考訳(メタデータ) (2025-09-18T16:54:23Z) - NebulaFL: Effective Asynchronous Federated Learning for JointCloud Computing [21.902246133851506]
本稿では,複数クラウド間の協調モデルトレーニングのための非同期FL手法NebulaFLを提案する。
実験の結果、最先端のFL法と比較して、NebulaFLは最大5.71%の精度向上を達成できることがわかった。
論文 参考訳(メタデータ) (2024-12-06T09:02:09Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Efficient and Secure Federated Learning for Financial Applications [15.04345368582332]
本稿では,フェデレート学習における通信コスト削減のための2つのスペーシング手法を提案する。
1つは、モデルパラメータ更新のための時間変化の階層的スペーシフィケーション法であり、高比のスペーシリティ後のモデル精度を維持する問題の解決である。
もう1つは、セキュアアグリゲーションフレームワークにスパシフィケーション手法を適用することである。
論文 参考訳(メタデータ) (2023-03-15T04:15:51Z) - Towards cost-effective and resource-aware aggregation at Edge for
Federated Learning [6.553945918984866]
Federated Learning(FL)は、ソースのデータ計算によるプライバシとデータ転送コストに対処する機械学習アプローチである。
この作業はEdgeで最初に適応的なFLアグリゲータを提案し、ユーザはコストと効率のトレードオフを管理することができる。
論文 参考訳(メタデータ) (2022-04-16T09:57:18Z) - SPATL: Salient Parameter Aggregation and Transfer Learning for
Heterogeneous Clients in Federated Learning [3.5394650810262336]
効率的なフェデレーション学習は、エッジデバイス上でAIモデルをトレーニングしデプロイする上で重要な課題の1つだ。
フェデレーション学習におけるデータのプライバシの維持は、データの均一性、高価な通信コスト、限られたリソースなど、いくつかの課題を引き起こす。
本稿では,ローカルクライアントの深層強化学習に基づく有能なパラメータ選択エージェントを提案し,選択した有能なパラメータを中央サーバに集約する。
論文 参考訳(メタデータ) (2021-11-29T06:28:05Z) - ProgFed: Effective, Communication, and Computation Efficient Federated Learning by Progressive Training [65.68511423300812]
本稿では,効率的なフェデレート学習のためのプログレッシブトレーニングフレームワークであるProgFedを提案する。
ProgFedは計算と双方向通信のコストを本質的に低減し、最終モデルの強力な性能を維持している。
以上の結果から, ProgFed はフルモデルの標準トレーニングと同等の速度で収束することがわかった。
論文 参考訳(メタデータ) (2021-10-11T14:45:00Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。