論文の概要: Vehicle-Infrastructure Cooperative 3D Object Detection via Feature Flow
Prediction
- arxiv url: http://arxiv.org/abs/2303.10552v1
- Date: Sun, 19 Mar 2023 03:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:41:14.862029
- Title: Vehicle-Infrastructure Cooperative 3D Object Detection via Feature Flow
Prediction
- Title(参考訳): 特徴流予測による車両・インフラ協調3次元物体検出
- Authors: Haibao Yu, Yingjuan Tang, Enze Xie, Jilei Mao, Jirui Yuan, Ping Luo,
Zaiqing Nie
- Abstract要約: 時間的非同期性と無線通信の制限により、融合ミスアライメントや影響検出性能が向上する可能性がある。
本稿では,これらの問題に対処するために,特徴フロー予測モジュールを用いた新しい協調検出フレームワークであるFeature Flow Netを提案する。
- 参考スコア(独自算出の注目度): 22.169582688831905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperatively utilizing both ego-vehicle and infrastructure sensor data can
significantly enhance autonomous driving perception abilities. However,
temporal asynchrony and limited wireless communication in traffic environments
can lead to fusion misalignment and impact detection performance. This paper
proposes Feature Flow Net (FFNet), a novel cooperative detection framework that
uses a feature flow prediction module to address these issues in
vehicle-infrastructure cooperative 3D object detection. Rather than
transmitting feature maps extracted from still-images, FFNet transmits feature
flow, which leverages the temporal coherence of sequential infrastructure
frames to predict future features and compensate for asynchrony. Additionally,
we introduce a self-supervised approach to enable FFNet to generate feature
flow with feature prediction ability. Experimental results demonstrate that our
proposed method outperforms existing cooperative detection methods while
requiring no more than 1/10 transmission cost of raw data on the DAIR-V2X
dataset when temporal asynchrony exceeds 200$ms$. The code is available at
\href{https://github.com/haibao-yu/FFNet-VIC3D}{https://github.com/haibao-yu/FFNet-VIC3D}.
- Abstract(参考訳): ego-vehicleとインフラストラクチャセンサデータの両方を活用することで、自動運転の認識能力を大幅に向上させることができる。
しかし、交通環境における時間的非同期性や無線通信の制限は、融合ミスアライメントや影響検出性能につながる可能性がある。
本稿では,これらの問題に対処するために,特徴フロー予測モジュールを用いた新しい協調検出フレームワークであるFeature Flow Net(FFNet)を提案する。
FFNetは静止画像から抽出した特徴マップを送信するのではなく、逐次的なインフラストラクチャフレームの時間的コヒーレンスを利用して将来の特徴を予測し、非同期を補償する特徴フローを送信する。
さらに,FFNetが特徴予測機能を備えた特徴フローを生成するための自己教師型アプローチを導入する。
提案手法は, 時間同期が200$ms$を超える場合, DAIR-V2Xデータセット上での生データの送信コストを1/10以下に抑えながら, 既存の協調検出手法よりも優れていることを示す。
コードは \href{https://github.com/haibao-yu/FFNet-VIC3D}{https://github.com/haibao-yu/FFNet-VIC3D} で公開されている。
関連論文リスト
- Enhanced Traffic Flow Prediction with Multi-Segment Fusion Tensor Graph Convolutional Networks [9.44949364543965]
既存の交通流予測モデルは、交通ネットワーク内の複雑な空間的依存関係をキャプチャする際の制限に悩まされる。
本研究では,交通流予測のためのマルチセグメント融合テンソルグラフ畳み込みネットワーク(MS-FTGCN)を提案する。
2つの交通流データセットを用いた実験の結果,提案したMS-FTGCNは最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T05:37:17Z) - StreamLTS: Query-based Temporal-Spatial LiDAR Fusion for Cooperative Object Detection [0.552480439325792]
我々は、広く使われているデータセットOPV2VとDairV2Xを適応させる、TA-COOD(Time-Aligned Cooperative Object Detection)を提案する。
実験結果から, 最先端の高密度モデルと比較して, 完全スパースフレームワークの優れた効率性が確認された。
論文 参考訳(メタデータ) (2024-07-04T10:56:10Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - EMIFF: Enhanced Multi-scale Image Feature Fusion for
Vehicle-Infrastructure Cooperative 3D Object Detection [23.32916754209488]
車両・インフラ協力型3D(VIC3D)物体検出における2つの大きな課題が続いている。
VIC3Dタスクのための新しいカメラベースの3D検出フレームワーク、EMIFF(Multiscale Image Feature Fusion)を提案する。
実験により、EMIFFはDAIR-V2X-Cデータセット上でSOTAを達成し、従来のアーリーフュージョン法とレイトフュージョン法を同等の伝送コストで大幅に上回った。
論文 参考訳(メタデータ) (2024-02-23T11:35:48Z) - Flow-Based Feature Fusion for Vehicle-Infrastructure Cooperative 3D
Object Detection [35.06078396499724]
Feature Flow Net (FFNet) は、VIC3Dオブジェクト検出のためのフローベース機能融合フレームワークである。
FFNetは、シーケンシャルインフラストラクチャフレームの時間的コヒーレンスを利用して、特徴フローを送信する。
提案手法は, 原データの送信コストの約1/100しか必要とせず, 既存の協調検出方法よりも優れていた。
論文 参考訳(メタデータ) (2023-11-03T03:10:09Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。