論文の概要: Adaptive Feature Fusion for Cooperative Perception using LiDAR Point
Clouds
- arxiv url: http://arxiv.org/abs/2208.00116v1
- Date: Sat, 30 Jul 2022 01:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:42:20.401071
- Title: Adaptive Feature Fusion for Cooperative Perception using LiDAR Point
Clouds
- Title(参考訳): LiDAR点雲を用いた協調知覚のための適応的特徴融合
- Authors: D. Qiao and F. Zulkernine
- Abstract要約: 協調認識により、コネクテッド・オートモービルは近隣の他のCAVと対話することができる。
盲点、低解像度、気象効果などの従来の車体知覚の限界を補うことができる。
CODDデータセットを用いた車両と歩行者の両方の協調認識性能の評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative perception allows a Connected Autonomous Vehicle (CAV) to
interact with the other CAVs in the vicinity to enhance perception of
surrounding objects to increase safety and reliability. It can compensate for
the limitations of the conventional vehicular perception such as blind spots,
low resolution, and weather effects. An effective feature fusion model for the
intermediate fusion methods of cooperative perception can improve feature
selection and information aggregation to further enhance the perception
accuracy. We propose adaptive feature fusion models with trainable feature
selection modules. One of our proposed models Spatial-wise Adaptive feature
Fusion (S-AdaFusion) outperforms all other state-of-the-art models on the two
subsets of OPV2V dataset: default CARLA towns for vehicle detection and the
Culver City for domain adaptation. In addition, previous studies have only
tested cooperative perception for vehicle detection. A pedestrian, however, is
much more likely to be seriously injured in a traffic accident. We evaluate the
performance of cooperative perception for both vehicle and pedestrian detection
using the CODD dataset. Our architecture achieves higher Average Precision (AP)
than other existing models for both vehicle and pedestrian detection on the
CODD dataset. The experiments demonstrate that cooperative perception also can
improve the pedestrian detection accuracy compared to the conventional
perception process.
- Abstract(参考訳): 協調認識により、コネクテッド・オートモービル(CAV)は周囲の他のCAVと相互作用し、周囲の物体の認識を高め、安全性と信頼性を高めることができる。
ブラインドスポット、低解像度、気象効果などの従来の車両知覚の限界を補うことができる。
協調的知覚の中間融合法に有効な特徴融合モデルは、特徴選択と情報集約を改善し、知覚精度をさらに高めることができる。
訓練可能な特徴選択モジュールを用いた適応的特徴融合モデルを提案する。
提案したモデルのうちの1つは、OPV2Vデータセットの2つのサブセット(デフォルトの車検出用CARLA町とドメイン適応用Culver City)において、他の最先端モデルよりも優れている。
さらに、以前の研究では、車両検出のための協調的な認識のみを検査した。
しかし、歩行者は交通事故で重傷を負う可能性が高い。
CODDデータセットを用いた車両と歩行者の両方の協調認識性能の評価を行った。
当社のアーキテクチャは,CODDデータセット上での車両および歩行者検出において,既存のモデルよりも高い平均精度(AP)を実現する。
実験では,協調的知覚が歩行者検出精度の向上にも寄与することを示した。
関連論文リスト
- Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - HEAD: A Bandwidth-Efficient Cooperative Perception Approach for Heterogeneous Connected and Autonomous Vehicles [9.10239345027499]
HEADは3次元物体検出ネットワークにおける分類と回帰ヘッドの特徴を融合する手法である。
実験の結果,HEADは通信帯域幅と知覚性能を効果的にバランスさせる融合法であることがわかった。
論文 参考訳(メタデータ) (2024-08-27T22:05:44Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Enhanced Cooperative Perception for Autonomous Vehicles Using Imperfect Communication [0.24466725954625887]
本稿では,制約通信下での協調知覚(CP)の最適化を実現するための新しい手法を提案する。
私たちのアプローチの核心は、視覚範囲を拡大するために、利用可能なフロント車両のリストから最高のヘルパーを募集することだ。
本研究は,協調知覚の全体的な性能向上における2段階最適化プロセスの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-04-10T15:37:15Z) - CMP: Cooperative Motion Prediction with Multi-Agent Communication [21.60646440715162]
本稿では,協調動作予測の実現可能性と有効性について検討する。
提案手法であるCMPは,LiDAR信号をモデル入力とし,追跡と予測能力を向上させる。
特に、CMPは平均予測誤差を16.4%削減し、検出精度は低下している。
論文 参考訳(メタデータ) (2024-03-26T17:53:27Z) - SiCP: Simultaneous Individual and Cooperative Perception for 3D Object Detection in Connected and Automated Vehicles [18.23919432049492]
連結車両と自動車両の協調認識は、伝統的に2台以上の車両の特徴マップの融合によって達成される。
この欠点は、車両資源が2つの知覚モデルを同時に使用するには不十分なため、協調的な知覚の採用を妨げる。
我々は、最先端のスタンドアロン認識バックボーンを幅広くサポートする汎用フレームワークである、同時個人協調知覚(SiCP)を提示する。
論文 参考訳(メタデータ) (2023-12-08T04:12:26Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - CoFF: Cooperative Spatial Feature Fusion for 3D Object Detection on
Autonomous Vehicles [20.333191597167847]
CoFFは、自動運転車の検知精度と有効検出範囲の両方において、大幅な改善を実現している。
その結果,自動走行車における検出精度と有効検出範囲の両面で,CoFFは著しく向上していることがわかった。
論文 参考訳(メタデータ) (2020-09-24T22:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。