論文の概要: Keypoints-Based Deep Feature Fusion for Cooperative Vehicle Detection of
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2109.11615v1
- Date: Thu, 23 Sep 2021 19:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 14:13:03.274467
- Title: Keypoints-Based Deep Feature Fusion for Cooperative Vehicle Detection of
Autonomous Driving
- Title(参考訳): キーポイントを用いた自動運転の協調車両検出のための深部特徴融合
- Authors: Yunshuang Yuan, Hao Cheng, Monika Sester
- Abstract要約: 本稿では,FPV-RCNNと呼ばれる,効率的なキーポイントに基づく深い特徴融合フレームワークを提案する。
鳥眼視(BEV)キーポイントの核融合と比較すると、FPV-RCNNは検出精度を約14%向上させる。
また,提案手法はCPMのサイズを0.3KB以下に削減し,従来のBEV機能マップの約50倍の小型化を実現した。
- 参考スコア(独自算出の注目度): 2.6543018470131283
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sharing collective perception messages (CPM) between vehicles is investigated
to decrease occlusions, so as to improve perception accuracy and safety of
autonomous driving. However, highly accurate data sharing and low communication
overhead is a big challenge for collective perception, especially when
real-time communication is required among connected and automated vehicles. In
this paper, we propose an efficient and effective keypoints-based deep feature
fusion framework, called FPV-RCNN, for collective perception, which is built on
top of the 3D object detector PV-RCNN. We introduce a bounding box proposal
matching module and a keypoints selection strategy to compress the CPM size and
solve the multi-vehicle data fusion problem. Compared to a bird's-eye view
(BEV) keypoints feature fusion, FPV-RCNN achieves improved detection accuracy
by about 14% at a high evaluation criterion (IoU 0.7) on a synthetic dataset
COMAP dedicated to collective perception. Also, its performance is comparable
to two raw data fusion baselines that have no data loss in sharing. Moreover,
our method also significantly decreases the CPM size to less than 0.3KB, which
is about 50 times smaller than the BEV feature map sharing used in previous
works. Even with a further decreased number of CPM feature channels, i.e., from
128 to 32, the detection performance only drops about 1%. The code of our
method is available at https://github.com/YuanYunshuang/FPV_RCNN.
- Abstract(参考訳): 車両間での集団認識メッセージ(CPM)の共有は、自動運転の認識精度と安全性を向上させるために、閉塞を減少させる。
しかし、特にコネクテッドおよび自動車両間のリアルタイム通信が必要な場合、高精度なデータ共有と低通信オーバーヘッドは集団認識の大きな課題である。
本稿では, 3次元物体検出器PV-RCNN上に構築した, FPV-RCNNと呼ばれる, 効率的なキーポイントに基づく深部特徴融合フレームワークを提案する。
我々は,cpmサイズを圧縮するバウンディングボックス提案マッチングモジュールとキーポイント選択戦略を導入し,多車種データ融合問題を解く。
鳥眼視(BEV)キーポイントの特徴融合と比較して、FPV-RCNNは、集合認識専用の合成データセットCOMAP上で、高い評価基準(IoU 0.7)において、検出精度を約14%向上させる。
また、そのパフォーマンスは、データ損失のない2つの生データ融合ベースラインに匹敵する。
さらに,本手法ではCPMのサイズを0.3KB以下に削減し,従来のBEV機能マップの約50倍の小型化を実現した。
さらにcpm機能チャネル数が128から32に減少しても、検出性能は1%程度しか低下しない。
このメソッドのコードはhttps://github.com/yuanyunshuang/fpv_rcnnで入手できる。
関連論文リスト
- Channel-Aware Throughput Maximization for Cooperative Data Fusion in CAV [17.703608985129026]
接続型および自律型車両(CAV)は、認識範囲の拡大と知覚範囲の増大により、大きな注目を集めている。
盲点や障害物などの問題に対処するため、CAVは周囲の車両からのデータを集めるために車両間通信を採用している。
本稿では,適応データ圧縮のための自己教師付きオートエンコーダを活用した,CAVデータ融合を容易にするチャネル対応スループット手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T00:43:46Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - V2X-PC: Vehicle-to-everything Collaborative Perception via Point Cluster [58.79477191603844]
我々は,低レベル構造情報と高レベル意味情報を組み合わせて,シーンを疎結合に表現する新しいメッセージユニット,すなわちポイントクラスタを導入する。
このフレームワークには、オブジェクトの機能を維持し、帯域幅を管理するためのポイントクラスタパッキング(PCP)モジュールが含まれている。
2つの広く認識されている協調認識ベンチマークの実験は、従来の最先端の手法と比較して、我々の手法の優れた性能を示している。
論文 参考訳(メタデータ) (2024-03-25T11:24:02Z) - SmartCooper: Vehicular Collaborative Perception with Adaptive Fusion and
Judger Mechanism [23.824400533836535]
通信最適化と判断機構を組み込んだ適応型協調認識フレームワークであるSmartCooperを紹介する。
以上の結果から,非ジュッジャー方式に比べて通信コストが23.10%大幅に削減された。
論文 参考訳(メタデータ) (2024-02-01T04:15:39Z) - V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - CoBEVFusion: Cooperative Perception with LiDAR-Camera Bird's-Eye View
Fusion [0.0]
協調認識における最近のアプローチは、カメラやLiDARのような単一のセンサー情報しか共有していない。
我々は,LiDARとカメラデータを融合してBird's-Eye View(BEV)表現を生成する,CoBEVFusionというフレームワークを提案する。
BEVセマンティックセグメンテーションと3Dオブジェクト検出という2つの認識課題に対して,協調認識データセットOPV2Vを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-09T17:52:26Z) - Collaboration Helps Camera Overtake LiDAR in 3D Detection [49.58433319402405]
カメラのみの3D検出は、LiDARベースの検出システムと比較して、オブジェクトを3D空間にローカライズするための簡単なソリューションを提供する。
提案するコラボレーティブカメラのみの3D検出(CoCa3D)により,エージェントは通信を通じて相互に補完情報を共有できる。
その結果、CoCa3Dは従来のSOTA性能をDAIR-V2Xで44.21%改善し、OPV2V+で30.60%、AP@70でCoPerception-UAVs+で12.59%向上した。
論文 参考訳(メタデータ) (2023-03-23T03:50:41Z) - OPV2V: An Open Benchmark Dataset and Fusion Pipeline for Perception with
Vehicle-to-Vehicle Communication [13.633468133727]
車両から車両への認識のための大規模なオープン・シミュレート・データセットを提示する。
70以上の興味深いシーン、11,464フレーム、232,913個の注釈付き3D車両のバウンディングボックスを含んでいる。
論文 参考訳(メタデータ) (2021-09-16T00:52:41Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Reinforcement Learning Based Vehicle-cell Association Algorithm for
Highly Mobile Millimeter Wave Communication [53.47785498477648]
本稿では,ミリ波通信網における車とセルの関連性について検討する。
まず、ユーザ状態(VU)問題を離散的な非車両関連最適化問題として定式化する。
提案手法は,複数のベースライン設計と比較して,ユーザの複雑性とVUEの20%削減の合計で最大15%のゲインが得られる。
論文 参考訳(メタデータ) (2020-01-22T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。