論文の概要: FedDSR: Federated Deep Supervision and Regularization Towards Autonomous Driving
- arxiv url: http://arxiv.org/abs/2512.06676v1
- Date: Sun, 07 Dec 2025 06:23:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.463403
- Title: FedDSR: Federated Deep Supervision and Regularization Towards Autonomous Driving
- Title(参考訳): FedDSR: 自動運転に向けたディープ・スーパービジョンと規則化
- Authors: Wei-Bin Kou, Guangxu Zhu, Bingyang Cheng, Chen Zhang, Yik-Chung Wu, Jianping Wang,
- Abstract要約: Federated Deep Supervision and Regularization (FedDSR) は、Federated ADシステムにマルチアクセス中間層監視と正規化を組み込んだパラダイムである。
FedDSRはmIoUが最大8.93%改善し、トレーニングラウンドが28.57%削減された。
- 参考スコア(独自算出の注目度): 32.600054594223096
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) enables collaborative training of autonomous driving (AD) models across distributed vehicles while preserving data privacy. However, FL encounters critical challenges such as poor generalization and slow convergence due to non-independent and identically distributed (non-IID) data from diverse driving environments. To overcome these obstacles, we introduce Federated Deep Supervision and Regularization (FedDSR), a paradigm that incorporates multi-access intermediate layer supervision and regularization within federated AD system. Specifically, FedDSR comprises following integral strategies: (I) to select multiple intermediate layers based on predefined architecture-agnostic standards. (II) to compute mutual information (MI) and negative entropy (NE) on those selected layers to serve as intermediate loss and regularizer. These terms are integrated into the output-layer loss to form a unified optimization objective, enabling comprehensive optimization across the network hierarchy. (III) to aggregate models from vehicles trained based on aforementioned rules of (I) and (II) to generate the global model on central server. By guiding and penalizing the learning of feature representations at intermediate stages, FedDSR enhances the model generalization and accelerates model convergence for federated AD. We then take the semantic segmentation task as an example to assess FedDSR and apply FedDSR to multiple model architectures and FL algorithms. Extensive experiments demonstrate that FedDSR achieves up to 8.93% improvement in mIoU and 28.57% reduction in training rounds, compared to other FL baselines, making it highly suitable for practical deployment in federated AD ecosystems.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保持しながら、分散車両間での自律運転(AD)モデルの協調トレーニングを可能にする。
しかし、FLは、様々な運転環境から非独立で同一に分散した(非IID)データによって、一般化の低さや収束の遅いといった重要な問題に直面している。
このような障害を克服するために,フェデレーション・ディープ・スーパービジョン・レギュラー化(FedDSR)を導入し,フェデレーションADシステム内でのマルチアクセス中間層監視とレギュラー化を取り入れたパラダイムを提案する。
特に、FedDSRは以下の統合戦略から構成される: (I) 事前定義されたアーキテクチャに依存しない標準に基づいて複数の中間層を選択する。
(II) 相互情報(MI)と負エントロピー(NE)を選択層上で計算して中間損失と正則化を行う。
これらの用語は出力層損失に統合され、統一された最適化目標を形成し、ネットワーク階層全体にわたって包括的な最適化を可能にする。
(III) 上記(I)及び(II)の規則に基づいて訓練された車両のモデルを集約し、中央サーバ上のグローバルモデルを生成する。
中間段階における特徴表現の学習を導くことによって、FedDSRはモデル一般化を強化し、連合ADのモデル収束を加速する。
次に、セマンティックセグメンテーションタスクを例として、FedDSRを評価し、FedDSRを複数のモデルアーキテクチャとFLアルゴリズムに適用する。
大規模な実験により、FedDSRは他のFLベースラインと比較して、mIoUが最大8.93%改善し、トレーニングラウンドが28.57%削減された。
関連論文リスト
- HFedATM: Hierarchical Federated Domain Generalization via Optimal Transport and Regularized Mean Aggregation [12.655334562608314]
Federated Learning(FL)は、複数のクライアントが生データを共有せずに、共同で共有グローバルモデルをトレーニングする分散アプローチである。
本稿では階層型フェデレーションドメイン一般化(HFedDG)を紹介する。
論文 参考訳(メタデータ) (2025-08-07T08:14:52Z) - FedEMA: Federated Exponential Moving Averaging with Negative Entropy Regularizer in Autonomous Driving [28.013875789806725]
S3U(Street Scene Semantic Understanding)は、自動運転(AD)における重要なタスクである。
それらの推論モデルは通常、ドメインシフトによる一般化が不十分である。
本稿では,この課題に対処する新たなフレームワークであるFederated Exponential moving Average(FedEMA)を提案する。
論文 参考訳(メタデータ) (2025-05-01T05:37:43Z) - Let Synthetic Data Shine: Domain Reassembly and Soft-Fusion for Single Domain Generalization [68.41367635546183]
単一ドメインの一般化は、単一のソースからのデータを使用して、さまざまなシナリオで一貫したパフォーマンスでモデルをトレーニングすることを目的としている。
モデル一般化を改善するために合成データを活用した学習フレームワークDRSFを提案する。
論文 参考訳(メタデータ) (2025-03-17T18:08:03Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - FedIN: Federated Intermediate Layers Learning for Model Heterogeneity [7.781409257429762]
フェデレートラーニング(FL)は、エッジデバイスがローカルおよびプライベートにトレーニングデータを維持しながら、グローバルな共有モデルを協調的にトレーニングすることを促進する。
本研究では,FedIN(Federated Intermediate Layers Learning)と呼ばれるFL手法を提案する。
実験結果から, 異種モデル環境におけるFedINの性能は, 最先端のアルゴリズムと比較して優れていた。
論文 参考訳(メタデータ) (2023-04-03T07:20:43Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Supernet Training for Federated Image Classification under System
Heterogeneity [15.2292571922932]
本研究では,2つのシナリオ,すなわちフェデレーション・オブ・スーパーネット・トレーニング(FedSup)を考えるための新しい枠組みを提案する。
フェデレートラーニング(FL)のモデルアグリゲーション段階でのパラメータの平均化は、スーパーネットトレーニングにおけるウェイトシェアリングとどのように似ているかに着想を得ている。
本フレームワークでは,通信コストの削減とトレーニングオーバーヘッドの低減のために,放送段階のクライアントにサブモデルを送信することで,効率的なアルゴリズム(E-FedSup)を提案する。
論文 参考訳(メタデータ) (2022-06-03T02:21:01Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。