論文の概要: Flow-Based Feature Fusion for Vehicle-Infrastructure Cooperative 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2311.01682v1
- Date: Fri, 3 Nov 2023 03:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 15:24:22.514814
- Title: Flow-Based Feature Fusion for Vehicle-Infrastructure Cooperative 3D
Object Detection
- Title(参考訳): 自動車・インフラ協調3次元物体検出のためのフローベース特徴融合
- Authors: Haibao Yu, Yingjuan Tang, Enze Xie, Jilei Mao, Ping Luo, Zaiqing Nie
- Abstract要約: Feature Flow Net (FFNet) は、VIC3Dオブジェクト検出のためのフローベース機能融合フレームワークである。
FFNetは、シーケンシャルインフラストラクチャフレームの時間的コヒーレンスを利用して、特徴フローを送信する。
提案手法は, 原データの送信コストの約1/100しか必要とせず, 既存の協調検出方法よりも優れていた。
- 参考スコア(独自算出の注目度): 35.06078396499724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperatively utilizing both ego-vehicle and infrastructure sensor data can
significantly enhance autonomous driving perception abilities. However, the
uncertain temporal asynchrony and limited communication conditions can lead to
fusion misalignment and constrain the exploitation of infrastructure data. To
address these issues in vehicle-infrastructure cooperative 3D (VIC3D) object
detection, we propose the Feature Flow Net (FFNet), a novel cooperative
detection framework. FFNet is a flow-based feature fusion framework that uses a
feature flow prediction module to predict future features and compensate for
asynchrony. Instead of transmitting feature maps extracted from still-images,
FFNet transmits feature flow, leveraging the temporal coherence of sequential
infrastructure frames. Furthermore, we introduce a self-supervised training
approach that enables FFNet to generate feature flow with feature prediction
ability from raw infrastructure sequences. Experimental results demonstrate
that our proposed method outperforms existing cooperative detection methods
while only requiring about 1/100 of the transmission cost of raw data and
covers all latency in one model on the DAIR-V2X dataset. The code is available
at
\href{https://github.com/haibao-yu/FFNet-VIC3D}{https://github.com/haibao-yu/FFNet-VIC3D}.
- Abstract(参考訳): ego-vehicleとインフラストラクチャセンサデータの両方を活用することで、自動運転の認識能力を大幅に向上させることができる。
しかし、不確定な時間的非同期性と限定的な通信条件は、融合の誤りを招き、インフラデータの活用を制限する可能性がある。
車両・インフラ間協調3D(VIC3D)オブジェクト検出におけるこれらの問題に対処するため,新しい協調検出フレームワークであるFeature Flow Net(FFNet)を提案する。
FFNetはフローベースの機能融合フレームワークで、機能フロー予測モジュールを使用して将来の機能予測と非同期の補償を行う。
FFNetは静止画像から抽出した特徴マップを送信する代わりに、連続的なインフラストラクチャフレームの時間的コヒーレンスを利用して特徴フローを送信する。
さらに,ffnetが生のインフラストラクチャシーケンスから特徴予測能力を備えた特徴フローを生成するための,自己教師付きトレーニング手法を提案する。
実験の結果,提案手法は生データの送信コストの約1/100しか必要とせず,DAIR-V2Xデータセット上の1つのモデルにおける全ての遅延をカバーしながら,既存の協調検出手法よりも優れていた。
コードは \href{https://github.com/haibao-yu/FFNet-VIC3D}{https://github.com/haibao-yu/FFNet-VIC3D} で公開されている。
関連論文リスト
- Spatiotemporal Decoupling for Efficient Vision-Based Occupancy Forecasting [18.933451243989452]
既存の3次元占有予測手法は、可動物体の空間的詳細性を予測するのに苦労する。
本稿では,このバイアスに明示的に対処し,効果的な3次元OCFを実現するための新しいビジョンベースパラダイムを提案する。
我々は,時間的に疎結合な表現で3次元OCFを実現するために,効率的なマルチヘッドネットワークネットワークであるEfficientOCFを開発した。
論文 参考訳(メタデータ) (2024-11-21T14:27:15Z) - Retain, Blend, and Exchange: A Quality-aware Spatial-Stereo Fusion Approach for Event Stream Recognition [57.74076383449153]
本稿では,差分融合によるイベントストリームに基づくパターン認識のための新しいデュアルストリームフレームワークEFV++を提案する。
イベントイメージとイベントボクセルという2つの共通のイベント表現を同時にモデル化する。
Bullying10kデータセットで新しい最先端のパフォーマンス、すなわち90.51%$を達成し、2位を+2.21%$で上回る。
論文 参考訳(メタデータ) (2024-06-27T02:32:46Z) - EMIFF: Enhanced Multi-scale Image Feature Fusion for
Vehicle-Infrastructure Cooperative 3D Object Detection [23.32916754209488]
車両・インフラ協力型3D(VIC3D)物体検出における2つの大きな課題が続いている。
VIC3Dタスクのための新しいカメラベースの3D検出フレームワーク、EMIFF(Multiscale Image Feature Fusion)を提案する。
実験により、EMIFFはDAIR-V2X-Cデータセット上でSOTAを達成し、従来のアーリーフュージョン法とレイトフュージョン法を同等の伝送コストで大幅に上回った。
論文 参考訳(メタデータ) (2024-02-23T11:35:48Z) - Vehicle-Infrastructure Cooperative 3D Object Detection via Feature Flow
Prediction [22.169582688831905]
時間的非同期性と無線通信の制限により、融合ミスアライメントや影響検出性能が向上する可能性がある。
本稿では,これらの問題に対処するために,特徴フロー予測モジュールを用いた新しい協調検出フレームワークであるFeature Flow Netを提案する。
論文 参考訳(メタデータ) (2023-03-19T03:38:02Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - Federated Learning Over Cellular-Connected UAV Networks with Non-IID
Datasets [19.792426676330212]
フェデレートラーニング(FL)は有望な分散ラーニング技術である。
本稿では,セルラー接続型無人航空機(UAV)ネットワーク上での新しいFLモデルを提案する。
本稿では,セル接続型UAVネットワークにおけるアップリンク停止確率の抽出可能な解析フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T23:15:20Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。