論文の概要: FedEMA: Federated Exponential Moving Averaging with Negative Entropy Regularizer in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2505.00318v1
- Date: Thu, 01 May 2025 05:37:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.237593
- Title: FedEMA: Federated Exponential Moving Averaging with Negative Entropy Regularizer in Autonomous Driving
- Title(参考訳): FedEMA: 自律運転における負エントロピー正規化器を用いたフェデレーション指数移動平均化
- Authors: Wei-Bin Kou, Guangxu Zhu, Bingyang Cheng, Shuai Wang, Ming Tang, Yik-Chung Wu,
- Abstract要約: S3U(Street Scene Semantic Understanding)は、自動運転(AD)における重要なタスクである。
それらの推論モデルは通常、ドメインシフトによる一般化が不十分である。
本稿では,この課題に対処する新たなフレームワークであるFederated Exponential moving Average(FedEMA)を提案する。
- 参考スコア(独自算出の注目度): 28.013875789806725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Street Scene Semantic Understanding (denoted as S3U) is a crucial but complex task for autonomous driving (AD) vehicles. Their inference models typically face poor generalization due to domain-shift. Federated Learning (FL) has emerged as a promising paradigm for enhancing the generalization of AD models through privacy-preserving distributed learning. However, these FL AD models face significant temporal catastrophic forgetting when deployed in dynamically evolving environments, where continuous adaptation causes abrupt erosion of historical knowledge. This paper proposes Federated Exponential Moving Average (FedEMA), a novel framework that addresses this challenge through two integral innovations: (I) Server-side model's historical fitting capability preservation via fusing current FL round's aggregation model and a proposed previous FL round's exponential moving average (EMA) model; (II) Vehicle-side negative entropy regularization to prevent FL models' possible overfitting to EMA-introduced temporal patterns. Above two strategies empower FedEMA a dual-objective optimization that balances model generalization and adaptability. In addition, we conduct theoretical convergence analysis for the proposed FedEMA. Extensive experiments both on Cityscapes dataset and Camvid dataset demonstrate FedEMA's superiority over existing approaches, showing 7.12% higher mean Intersection-over-Union (mIoU).
- Abstract(参考訳): S3U(Street Scene Semantic Understanding)は、自動運転(AD)における重要なタスクである。
それらの推論モデルは通常、ドメインシフトによる一般化が不十分である。
フェデレートラーニング(FL)は,プライバシ保存型分散ラーニングを通じてADモデルの一般化を促進するための,有望なパラダイムとして登場した。
しかしながら、これらのFLADモデルは、動的に進化する環境に展開するときに重大な時間的破滅的な忘れに直面し、継続的な適応は、歴史的知識の急激な侵食を引き起こす。
本稿では,FedEMA (Federated Exponential moving Average) という,この課題に対処する新しいフレームワークを提案する。 (I) サーバサイドモデルが,現在のFLラウンドの集約モデルと,前回のFLラウンドの指数移動平均(EMA)モデルとを融合させることにより,歴史的適合性を維持すること, (II) FLモデルがEMA導入時パターンに過度に適合することを防止するための車両側負のエントロピー正規化を提案する。
2つの戦略の上に、モデル一般化と適応性のバランスをとる二重目的最適化をFedEMAに与える。
さらに,提案したFedEMAについて理論的収束解析を行う。
CityscapesデータセットとCamvidデータセットの両方に関する大規模な実験は、FedEMAが既存のアプローチよりも優れていることを示している。
関連論文リスト
- FedSKD: Aggregation-free Model-heterogeneous Federated Learning using Multi-dimensional Similarity Knowledge Distillation [7.944298319589845]
フェデレートラーニング(FL)は、直接データを共有することなく、プライバシー保護のための協調モデルトレーニングを可能にする。
MHFL(Model-heterogeneous FL)は、クライアントが計算資源やアプリケーション固有のニーズに合わせて、不均一なアーキテクチャでパーソナライズされたモデルを訓練することを可能にする。
ピアツーピア(P2P)FLはサーバ依存を除去するが、モデルドリフトと知識の希釈に悩まされ、不均一な設定での有効性が制限される。
ラウンドロビンモデル循環による直接知識交換を容易にする新しいMHFLフレームワークであるFedSKDを提案する。
論文 参考訳(メタデータ) (2025-03-23T05:33:10Z) - Biased Federated Learning under Wireless Heterogeneity [7.3716675761469945]
Federated Learning(FL)は計算のための有望なフレームワークであり、プライベートデータを共有せずに協調的なモデルトレーニングを可能にする。
既存の無線計算処理では,(1)無線信号重畳を利用するOTA(Over-the-air)と(2)収束のためのリソースを割り当てるOTA(Over-the-air)の2つの通信戦略が採用されている。
本稿では,新しいOTAおよびデジタルFL更新を提案する。
論文 参考訳(メタデータ) (2025-03-08T05:55:14Z) - SEAFL: Enhancing Efficiency in Semi-Asynchronous Federated Learning through Adaptive Aggregation and Selective Training [26.478852701376294]
半非同期FLにおけるストラグラーと古いモデルの課題を緩和するために設計された新しいFLフレームワークであるSEAFLを提案する。
Em SEAFLは、現在のグローバルモデルに対する安定性と重要性に基づいて、アグリゲーション中にアップロードされたモデルに重みを動的に割り当てる。
我々は,3つのベンチマークデータセットを用いた広範囲な実験により,SEAFLの有効性を評価する。
論文 参考訳(メタデータ) (2025-02-22T05:13:53Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Knowledge Rumination for Client Utility Evaluation in Heterogeneous Federated Learning [12.50871784200551]
フェデレートラーニング(FL)は、いくつかのクライアントが生データを開示することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
非IIDデータと古いモデルは、グローバルモデルの実用性を低下させ、トレーニング失敗につながる可能性があるため、AFLに重大な課題をもたらす。
我々はFedHistと呼ばれる新しいAFLフレームワークを提案し、非IIDデータと勾配安定度の両方がもたらす課題を効果的に解決する。
論文 参考訳(メタデータ) (2023-12-16T11:40:49Z) - EvoFed: Leveraging Evolutionary Strategies for Communication-Efficient
Federated Learning [15.124439914522693]
Federated Learning(FL)は分散ノード間の協調モデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,進化戦略(ES)をFLと統合し,これらの課題に対処する新しいアプローチであるEvoFedを提案する。
論文 参考訳(メタデータ) (2023-11-13T17:25:06Z) - Super-model ecosystem: A domain-adaptation perspective [101.76769818069072]
本稿では,ドメイン適応による新たなスーパーモデルパラダイムの理論的基礎を確立することを試みる。
スーパーモデルパラダイムは、計算とデータコストと二酸化炭素排出量を減らすのに役立つ。
論文 参考訳(メタデータ) (2022-08-30T09:09:43Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Gradual Federated Learning with Simulated Annealing [26.956032164461377]
フェデレート平均化(FedAvg)は、ローカルモデルを平均化してグローバルモデルを更新する一般的なフェデレーション学習(FL)技術である。
本稿では,シミュレーションアニーリングに基づく新しいFL法を提案する。
本稿では,従来のFedAvg法よりも収束速度と分類精度が優れていることを示す。
論文 参考訳(メタデータ) (2021-10-11T11:57:56Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。