論文の概要: FedBEVT: Federated Learning Bird's Eye View Perception Transformer in
Road Traffic Systems
- arxiv url: http://arxiv.org/abs/2304.01534v2
- Date: Fri, 8 Sep 2023 09:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 18:16:59.232215
- Title: FedBEVT: Federated Learning Bird's Eye View Perception Transformer in
Road Traffic Systems
- Title(参考訳): FedBEVT:道路交通システムにおける鳥の視線知覚変換器
- Authors: Rui Song, Runsheng Xu, Andreas Festag, Jiaqi Ma, Alois Knoll
- Abstract要約: 本稿では,Bird's Eye View(BEV)知覚のためのフェデレートトランスフォーマー学習手法であるFedBEVTを紹介する。
We propose two approach -- Federated Learning with Camera-Attentive Personalization (FedCaP) and Adaptive Multi-Camera Masking (AMCM)。
以上の結果から,FedBEVTは4症例すべてでベースラインアプローチに優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 19.21270181583156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bird's eye view (BEV) perception is becoming increasingly important in the
field of autonomous driving. It uses multi-view camera data to learn a
transformer model that directly projects the perception of the road environment
onto the BEV perspective. However, training a transformer model often requires
a large amount of data, and as camera data for road traffic are often private,
they are typically not shared. Federated learning offers a solution that
enables clients to collaborate and train models without exchanging data but
model parameters. In this paper, we introduce FedBEVT, a federated transformer
learning approach for BEV perception. In order to address two common data
heterogeneity issues in FedBEVT: (i) diverse sensor poses, and (ii) varying
sensor numbers in perception systems, we propose two approaches -- Federated
Learning with Camera-Attentive Personalization (FedCaP) and Adaptive
Multi-Camera Masking (AMCM), respectively. To evaluate our method in real-world
settings, we create a dataset consisting of four typical federated use cases.
Our findings suggest that FedBEVT outperforms the baseline approaches in all
four use cases, demonstrating the potential of our approach for improving BEV
perception in autonomous driving.
- Abstract(参考訳): 自律運転の分野では、鳥の視線(BEV)の認識がますます重要になっている。
マルチビューカメラデータを使用して、道路環境の知覚を直接BEVの視点に投影するトランスフォーマーモデルを学ぶ。
しかし、トランスモデルのトレーニングには大量のデータを必要とすることが多く、道路交通のカメラデータはしばしばプライベートであるため、共有されることはない。
フェデレーション学習は、データとモデルパラメータを交換することなく、クライアントが協調してモデルをトレーニングできるソリューションを提供する。
本稿では,BEV知覚のためのフェデレートトランスフォーマー学習手法であるFedBEVTを紹介する。
FedBEVTにおける2つの共通データ不均一性問題に対処するために
(i)多様なセンサーのポーズ、及び
2) 認識システムにおけるセンサ数の変化から,FedCaP(Federated Learning with Camera-Attentive Personalization)とAMCM(Adaptive Multi-Camera Masking)の2つのアプローチを提案する。
本手法を実世界環境で評価するために,4つの典型的なフェデレーション・ユースケースからなるデータセットを作成する。
その結果,FedBEVTは4つのユースケースすべてにおいてベースラインアプローチよりも優れており,自動運転におけるBEV知覚の向上に対するアプローチの可能性を示している。
関連論文リスト
- BEVPose: Unveiling Scene Semantics through Pose-Guided Multi-Modal BEV Alignment [8.098296280937518]
本稿では,カメラとライダーデータからBEV表現を統合するフレームワークであるBEVPoseについて,センサポーズを誘導監視信号として用いた。
ポーズ情報を活用することで,環境の幾何学的側面と意味的側面の両方を捉えた潜在的BEV埋め込みの学習を容易にし,マルチモーダルな感覚入力を調整・融合する。
論文 参考訳(メタデータ) (2024-10-28T12:40:27Z) - Vision-Driven 2D Supervised Fine-Tuning Framework for Bird's Eye View Perception [20.875243604623723]
視覚的2次元意味認識に基づくBEV知覚ネットワークの微調整手法を提案する。
2次元認識技術の成熟と発展を考えると,この手法は低コストなLiDAR基底真理への依存を著しく低減する。
論文 参考訳(メタデータ) (2024-09-09T17:40:30Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Delving into the Devils of Bird's-eye-view Perception: A Review,
Evaluation and Recipe [115.31507979199564]
鳥眼視(BEV)における知覚タスクの強力な表現の学習は、産業と学界の両方から注目されつつある。
センサーの構成が複雑化するにつれて、異なるセンサーからの複数のソース情報の統合と、統一されたビューにおける特徴の表現が重要になる。
BEV知覚の中核的な問題は、(a)視点からBEVへの視点変換を通して失われた3D情報を再構成する方法、(b)BEVグリッドにおける基底真理アノテーションの取得方法、(d)センサー構成が異なるシナリオでアルゴリズムを適応・一般化する方法にある。
論文 参考訳(メタデータ) (2022-09-12T15:29:13Z) - CoBEVT: Cooperative Bird's Eye View Semantic Segmentation with Sparse
Transformers [36.838065731893735]
CoBEVTは、BEVマップ予測を協調的に生成できる最初の汎用マルチエージェント認識フレームワークである。
CoBEVTは協調的BEVセマンティックセグメンテーションのための最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-05T17:59:28Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Learning Vision-Guided Quadrupedal Locomotion End-to-End with
Cross-Modal Transformers [14.509254362627576]
強化学習(RL)を用いた四足歩行課題への取り組みを提案する。
四足歩行のためのエンドツーエンドRL法であるLocoTransformerを導入する。
論文 参考訳(メタデータ) (2021-07-08T17:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。