論文の概要: Flow-Based Feature Fusion for Vehicle-Infrastructure Cooperative 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2311.01682v1
- Date: Fri, 3 Nov 2023 03:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 15:24:22.514814
- Title: Flow-Based Feature Fusion for Vehicle-Infrastructure Cooperative 3D
Object Detection
- Title(参考訳): 自動車・インフラ協調3次元物体検出のためのフローベース特徴融合
- Authors: Haibao Yu, Yingjuan Tang, Enze Xie, Jilei Mao, Ping Luo, Zaiqing Nie
- Abstract要約: Feature Flow Net (FFNet) は、VIC3Dオブジェクト検出のためのフローベース機能融合フレームワークである。
FFNetは、シーケンシャルインフラストラクチャフレームの時間的コヒーレンスを利用して、特徴フローを送信する。
提案手法は, 原データの送信コストの約1/100しか必要とせず, 既存の協調検出方法よりも優れていた。
- 参考スコア(独自算出の注目度): 35.06078396499724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperatively utilizing both ego-vehicle and infrastructure sensor data can
significantly enhance autonomous driving perception abilities. However, the
uncertain temporal asynchrony and limited communication conditions can lead to
fusion misalignment and constrain the exploitation of infrastructure data. To
address these issues in vehicle-infrastructure cooperative 3D (VIC3D) object
detection, we propose the Feature Flow Net (FFNet), a novel cooperative
detection framework. FFNet is a flow-based feature fusion framework that uses a
feature flow prediction module to predict future features and compensate for
asynchrony. Instead of transmitting feature maps extracted from still-images,
FFNet transmits feature flow, leveraging the temporal coherence of sequential
infrastructure frames. Furthermore, we introduce a self-supervised training
approach that enables FFNet to generate feature flow with feature prediction
ability from raw infrastructure sequences. Experimental results demonstrate
that our proposed method outperforms existing cooperative detection methods
while only requiring about 1/100 of the transmission cost of raw data and
covers all latency in one model on the DAIR-V2X dataset. The code is available
at
\href{https://github.com/haibao-yu/FFNet-VIC3D}{https://github.com/haibao-yu/FFNet-VIC3D}.
- Abstract(参考訳): ego-vehicleとインフラストラクチャセンサデータの両方を活用することで、自動運転の認識能力を大幅に向上させることができる。
しかし、不確定な時間的非同期性と限定的な通信条件は、融合の誤りを招き、インフラデータの活用を制限する可能性がある。
車両・インフラ間協調3D(VIC3D)オブジェクト検出におけるこれらの問題に対処するため,新しい協調検出フレームワークであるFeature Flow Net(FFNet)を提案する。
FFNetはフローベースの機能融合フレームワークで、機能フロー予測モジュールを使用して将来の機能予測と非同期の補償を行う。
FFNetは静止画像から抽出した特徴マップを送信する代わりに、連続的なインフラストラクチャフレームの時間的コヒーレンスを利用して特徴フローを送信する。
さらに,ffnetが生のインフラストラクチャシーケンスから特徴予測能力を備えた特徴フローを生成するための,自己教師付きトレーニング手法を提案する。
実験の結果,提案手法は生データの送信コストの約1/100しか必要とせず,DAIR-V2Xデータセット上の1つのモデルにおける全ての遅延をカバーしながら,既存の協調検出手法よりも優れていた。
コードは \href{https://github.com/haibao-yu/FFNet-VIC3D}{https://github.com/haibao-yu/FFNet-VIC3D} で公開されている。
関連論文リスト
- EMIFF: Enhanced Multi-scale Image Feature Fusion for
Vehicle-Infrastructure Cooperative 3D Object Detection [23.32916754209488]
車両・インフラ協力型3D(VIC3D)物体検出における2つの大きな課題が続いている。
VIC3Dタスクのための新しいカメラベースの3D検出フレームワーク、EMIFF(Multiscale Image Feature Fusion)を提案する。
実験により、EMIFFはDAIR-V2X-Cデータセット上でSOTAを達成し、従来のアーリーフュージョン法とレイトフュージョン法を同等の伝送コストで大幅に上回った。
論文 参考訳(メタデータ) (2024-02-23T11:35:48Z) - Vehicle-Infrastructure Cooperative 3D Object Detection via Feature Flow
Prediction [22.169582688831905]
時間的非同期性と無線通信の制限により、融合ミスアライメントや影響検出性能が向上する可能性がある。
本稿では,これらの問題に対処するために,特徴フロー予測モジュールを用いた新しい協調検出フレームワークであるFeature Flow Netを提案する。
論文 参考訳(メタデータ) (2023-03-19T03:38:02Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative
3D Object Detection [8.681912341444901]
DAIR-V2Xは、自動車・インフラ協調自律運転の現実シナリオから得られた、最初の大規模でマルチモードのマルチビューデータセットである。
DAIR-V2Xは71254のLiDARフレームと71254のカメラフレームで構成される。
論文 参考訳(メタデータ) (2022-04-12T07:13:33Z) - Federated Learning Over Cellular-Connected UAV Networks with Non-IID
Datasets [19.792426676330212]
フェデレートラーニング(FL)は有望な分散ラーニング技術である。
本稿では,セルラー接続型無人航空機(UAV)ネットワーク上での新しいFLモデルを提案する。
本稿では,セル接続型UAVネットワークにおけるアップリンク停止確率の抽出可能な解析フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T23:15:20Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。