論文の概要: Fractional Order Federated Learning for Battery Electric Vehicle Energy Consumption Modeling
- arxiv url: http://arxiv.org/abs/2602.12567v1
- Date: Fri, 13 Feb 2026 03:26:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.831758
- Title: Fractional Order Federated Learning for Battery Electric Vehicle Energy Consumption Modeling
- Title(参考訳): 電気自動車エネルギー消費モデルのためのフラクショナルオーダーフェデレーション学習
- Authors: Mohammad Partohaghighi, Roummel Marcia, Bruce J. West, YangQuan Chen,
- Abstract要約: 接続型電気自動車(BEV)におけるフェデレーション学習は、断続的接続性、時間的変化によるクライアント参加性、および多様な動作条件によって引き起こされるクライアント-クライアント間変動による深刻な不安定性に直面している。
この研究は、FedAvgの軽量でモジュラーな拡張であるFedAvg(FO-RI-FedAvg)を導入し、2つの補完的なクライアントサイドメカニズムを通じて安定性を向上させる。
2つの実世界のBEVエネルギー予測データセット、VEDとその拡張バージョンeVEDの実験は、FO-RI-FedAvgが強力な連合ベースラインに比べて精度とより安定した収束を達成することを示した。
- 参考スコア(独自算出の注目度): 3.8218584696400484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning on connected electric vehicles (BEVs) faces severe instability due to intermittent connectivity, time-varying client participation, and pronounced client-to-client variation induced by diverse operating conditions. Conventional FedAvg and many advanced methods can suffer from excessive drift and degraded convergence under these realistic constraints. This work introduces Fractional-Order Roughness-Informed Federated Averaging (FO-RI-FedAvg), a lightweight and modular extension of FedAvg that improves stability through two complementary client-side mechanisms: (i) adaptive roughness-informed proximal regularization, which dynamically tunes the pull toward the global model based on local loss-landscape roughness, and (ii) non-integer-order local optimization, which incorporates short-term memory to smooth conflicting update directions. The approach preserves standard FedAvg server aggregation, adds only element-wise operations with amortizable overhead, and allows independent toggling of each component. Experiments on two real-world BEV energy prediction datasets, VED and its extended version eVED, show that FO-RI-FedAvg achieves improved accuracy and more stable convergence compared to strong federated baselines, particularly under reduced client participation.
- Abstract(参考訳): 接続型電気自動車(BEV)におけるフェデレーション学習は、断続的接続性、時間的変化によるクライアント参加性、および多様な動作条件によって引き起こされるクライアント-クライアント間変動による深刻な不安定性に直面している。
従来のFedAvgや多くの高度な手法は、これらの現実的な制約の下で過度のドリフトと劣化した収束に悩まされる。
本稿では、FedAvgの軽量でモジュール化された拡張であるFedAvg(FO-RI-FedAvg)について紹介する。
適応的粗さインフォームド近位正規化は、局所的なロスランドスケープの粗さに基づいて、グローバルモデルへのプルを動的に調整し、
(II) 短期記憶とスムーズな更新方向を含む非整数順序局所最適化。
このアプローチは、標準のFedAvgサーバアグリゲーションを保持し、保存可能なオーバーヘッドを持つ要素レベルの操作のみを追加し、各コンポーネントの独立したトグルリングを可能にする。
実世界の2つのBEVエネルギー予測データセット、VEDとその拡張バージョンeVEDの実験により、FO-RI-FedAvgは、特にクライアント参加の減少の下で、強力な連合ベースラインに比べて精度とより安定した収束を達成することが示された。
関連論文リスト
- Roughness-Informed Federated Learning [3.8218584696400484]
フェデレートラーニング(FL)は、分散クライアント間の協調モデルトレーニングを可能にする。
FLはクライアントのドリフトによって非独立で同一に分散された(IIDではない)設定で課題に直面します。
本稿ではRoughness Index(RI)ベースの正規化項を組み込むことでクライアントのドリフトを緩和する新しいFLであるRI-FedAvgを提案する。
論文 参考訳(メタデータ) (2026-02-11T07:35:45Z) - An Adaptive Differentially Private Federated Learning Framework with Bi-level Optimization [10.218291445871435]
フェデレーション学習は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
実際の展開では、デバイスの不均一性、非独立性、および同一に分散された(Non-IID)データは、しばしば非常に不安定で偏りのある勾配更新をもたらす。
異種およびプライバシー制約のある環境下でモデル効率を明示的に目標とする適応型微分プライベートなフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-06T16:27:33Z) - Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - FLARE: Adaptive Multi-Dimensional Reputation for Robust Client Reliability in Federated Learning [0.6524460254566904]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
ビザンツの攻撃、データ中毒、あるいは適応的な敵行動を通じてモデルの完全性を侵害する悪意のあるクライアントには、依然として脆弱である。
FLAREは,クライアントの信頼性評価を二分決定から連続的多次元信頼評価に変換するアダプティブな評価ベースフレームワークである。
論文 参考訳(メタデータ) (2025-11-18T17:57:40Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Mitigating Catastrophic Forgetting with Adaptive Transformer Block Expansion in Federated Fine-Tuning [25.121545962121907]
大規模言語モデル(LLM)のFedFT(Federated Fine-tuning)は、分散データ環境にモデルを適用するための有望なソリューションとして登場した。
適応型トランスフォーマーブロック拡張機構と動的トレーニング可能なブロック割り当て戦略を統合した新しいFedFTフレームワークであるFedBEを提案する。
その結果、FedBEは、下流タスクの精度を劣化させることなく、微調整後の一般タスクにおける12~74%の精度保持と1.9~3.1xのモデル収束促進比を実現していることがわかった。
論文 参考訳(メタデータ) (2025-06-06T10:59:11Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - FedSpeed: Larger Local Interval, Less Communication Round, and Higher
Generalization Accuracy [84.45004766136663]
フェデレートラーニング(Federated Learning)は、分散機械学習フレームワークである。
これは、局所的不整合最適と局所的過度な適合による頑丈なクライアントドリフトによってもたらされる非消滅バイアスに悩まされる。
本稿では,これらの問題による負の影響を軽減するために,新しい実用的手法であるFedSpeedを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:55:29Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。