論文の概要: Deep Federated Learning for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2110.05754v1
- Date: Tue, 12 Oct 2021 06:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 15:30:35.818538
- Title: Deep Federated Learning for Autonomous Driving
- Title(参考訳): 自動運転のためのディープフェデレーション学習
- Authors: Anh Nguyen, Tuong Do, Minh Tran, Binh X. Nguyen, Chien Duong, Tu Phan,
Erman Tjiputra, Quang D. Tran
- Abstract要約: プライバシーの懸念を尊重しながら自律運転政策を学ぶための新しいアプローチを提案する。
本稿では,ピアツーピアのディープラーニング(DFL)アプローチを用いて,ディープラーニングを分散的に学習する手法を提案する。
我々は、モデル安定性を改善し、収束を確保し、不均衡なデータ分散問題に対処できる新しいフェデレート自律運転ネットワーク(FADNet)を設計する。
- 参考スコア(独自算出の注目度): 15.514129425191266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving is an active research topic in both academia and industry.
However, most of the existing solutions focus on improving the accuracy by
training learnable models with centralized large-scale data. Therefore, these
methods do not take into account the user's privacy. In this paper, we present
a new approach to learn autonomous driving policy while respecting privacy
concerns. We propose a peer-to-peer Deep Federated Learning (DFL) approach to
train deep architectures in a fully decentralized manner and remove the need
for central orchestration. We design a new Federated Autonomous Driving network
(FADNet) that can improve the model stability, ensure convergence, and handle
imbalanced data distribution problems while is being trained with federated
learning methods. Intensively experimental results on three datasets show that
our approach with FADNet and DFL achieves superior accuracy compared with other
recent methods. Furthermore, our approach can maintain privacy by not
collecting user data to a central server.
- Abstract(参考訳): 自律運転は学術と産業の両方において活発な研究課題である。
しかし、既存のソリューションのほとんどは、学習可能なモデルを集中的な大規模データでトレーニングすることで精度を向上させることに重点を置いている。
したがって、これらの方法はユーザのプライバシーを考慮しない。
本稿では,プライバシーを尊重しながら自律運転政策を学習するための新しいアプローチを提案する。
本稿では,ピア・ツー・ピアのディープ・フェデレーション・ラーニング(dfl)アプローチを提案する。
本研究では,モデル安定性の向上,収束の確保,不均衡なデータ分散問題への対処を可能にするとともに,フェデレーション学習法を用いてトレーニングを行う新しいフェデレーション自律運転ネットワーク(fadnet)を設計した。
3つのデータセットについて集中的に実験した結果,fadnet と dfl のアプローチは他の手法と比較して精度が優れていることがわかった。
さらに,ユーザデータを中央サーバに収集しないことにより,プライバシの維持も可能である。
関連論文リスト
- FedRAV: Hierarchically Federated Region-Learning for Traffic Object Classification of Autonomous Vehicles [7.8896851741869085]
自動運転車の階層的統合地域学習フレームワーク(FedRAV)を提案する。
FedRAVは、定義された地域距離に基づいて、車両を含む広い領域をサブリージョンに適応的に分割し、パーソナライズされた車両モデルと地域モデルを達成する。
実験の結果、我々のフレームワークはこれらの既知のアルゴリズムより優れており、少なくとも3.69%精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-11-21T09:45:55Z) - Confidence-based federated distillation for vision-based lane-centering [4.071859628309787]
本稿では, ステアリング角度予測のための機械学習の性能向上を目的とした, 信頼性に基づく新しいフェデレーション蒸留法を提案する。
視覚に基づく車線センターの総合評価では、提案手法はFedAvgとFedDFをそれぞれ11.3%、FedDFを9%上回っている。
論文 参考訳(メタデータ) (2023-06-05T20:16:19Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Concept drift detection and adaptation for federated and continual
learning [55.41644538483948]
スマートデバイスは環境から大量のデータを収集することができる。
このデータは機械学習モデルのトレーニングに適しており、その振る舞いを大幅に改善することができる。
そこで本研究では,Concept-Drift-Aware Federated Averagingと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-27T17:01:58Z) - SCEI: A Smart-Contract Driven Edge Intelligence Framework for IoT
Systems [15.796325306292134]
フェデレートラーニング(FL)は、データプライバシを維持しながら、エッジデバイス上で共有モデルの協調トレーニングを可能にする。
様々なパーソナライズされたアプローチが提案されているが、そのようなアプローチはデータ分散の根底にある変化に対処できない。
本稿では,ブロックチェーンとフェデレーション学習に基づく動的に最適化された個人深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-12T02:57:05Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。