論文の概要: Direct-CP: Directed Collaborative Perception for Connected and Autonomous Vehicles via Proactive Attention
- arxiv url: http://arxiv.org/abs/2409.08840v1
- Date: Fri, 13 Sep 2024 13:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 16:19:29.648556
- Title: Direct-CP: Directed Collaborative Perception for Connected and Autonomous Vehicles via Proactive Attention
- Title(参考訳): Direct-CP: アクティブアテンションによるコネクテッドおよび自律走行車両の協調認識
- Authors: Yihang Tao, Senkang Hu, Zhengru Fang, Yuguang Fang,
- Abstract要約: 提案するDirect-CPは,特定の方向でCPを改善することを目的とした,プロアクティブで方向対応のCPシステムである。
我々のキーとなる考え方は、エゴ車両が関心のある方向を積極的に信号し、その注意を調整し、局所的な方向CP性能を向上させることである。
本手法は,3次元物体検出作業における最先端手法よりも,関心方向における局所的知覚精度19.8%,全体的知覚精度2.5%を達成している。
- 参考スコア(独自算出の注目度): 7.582576346284436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative perception (CP) leverages visual data from connected and autonomous vehicles (CAV) to enhance an ego vehicle's field of view (FoV). Despite recent progress, current CP methods expand the ego vehicle's 360-degree perceptual range almost equally, which faces two key challenges. Firstly, in areas with uneven traffic distribution, focusing on directions with little traffic offers limited benefits. Secondly, under limited communication budgets, allocating excessive bandwidth to less critical directions lowers the perception accuracy in more vital areas. To address these issues, we propose Direct-CP, a proactive and direction-aware CP system aiming at improving CP in specific directions. Our key idea is to enable an ego vehicle to proactively signal its interested directions and readjust its attention to enhance local directional CP performance. To achieve this, we first propose an RSU-aided direction masking mechanism that assists an ego vehicle in identifying vital directions. Additionally, we design a direction-aware selective attention module to wisely aggregate pertinent features based on ego vehicle's directional priorities, communication budget, and the positional data of CAVs. Moreover, we introduce a direction-weighted detection loss (DWLoss) to capture the divergence between directional CP outcomes and the ground truth, facilitating effective model training. Extensive experiments on the V2X-Sim 2.0 dataset demonstrate that our approach achieves 19.8\% higher local perception accuracy in interested directions and 2.5\% higher overall perception accuracy than the state-of-the-art methods in collaborative 3D object detection tasks.
- Abstract(参考訳): 協調知覚(CP)は、コネクテッドおよび自律走行車(CAV)からの視覚データを活用して、エゴ車両の視野(FoV)を高める。
最近の進歩にもかかわらず、現在のCP手法はエゴの知覚範囲を360度に拡大しており、2つの重要な課題に直面している。
第一に、不均一な交通分布のある地域では、交通量が少ない方向に集中することは、限られた利益をもたらす。
第二に、限られた通信予算の下では、過度な帯域幅をあまり重要でない方向に割り当てることにより、より重要な領域における知覚精度が低下する。
これらの課題に対処するため,特定の方向でCPを改善することを目的とした,プロアクティブで方向対応のCPシステムであるDirect-CPを提案する。
我々のキーとなる考え方は、エゴ車両が関心のある方向を積極的に信号し、その注意を調整し、局所的な方向CP性能を向上させることである。
そこで本研究では,まず,エゴ車両が重要な方向を特定するのを補助するRSU支援の方向マスキング機構を提案する。
さらに,エゴ車両の指向性優先度,通信予算,CAVの位置データに基づいて,適切な特徴を適切に集約する指向性選択型アテンションモジュールを設計する。
さらに、方向重み付き検出損失(DWLoss)を導入し、方向性CP結果と地上真実との相違を捉え、効果的なモデルトレーニングを容易にする。
V2X-Sim 2.0データセットの大規模な実験により、我々の手法は、関心のある方向における局所的な認識精度が19.8倍、そして、協調的な3Dオブジェクト検出タスクにおける最先端の手法よりも2.5倍高い全体的な認識精度が得られることが示された。
関連論文リスト
- Enhancing Lane Segment Perception and Topology Reasoning with Crowdsourcing Trajectory Priors [12.333249510969289]
本稿では, 軌道先行の新たな視点から, 先行オーディメンテーションを考察する。
我々は、融合プロセス中にアライメントを考慮に入れた信頼に基づく融合モジュールを設計する。
その結果,本手法の性能は現在の最先端手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-11-26T07:05:05Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - Enhanced Cooperative Perception for Autonomous Vehicles Using Imperfect Communication [0.24466725954625887]
本稿では,制約通信下での協調知覚(CP)の最適化を実現するための新しい手法を提案する。
私たちのアプローチの核心は、視覚範囲を拡大するために、利用可能なフロント車両のリストから最高のヘルパーを募集することだ。
本研究は,協調知覚の全体的な性能向上における2段階最適化プロセスの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-04-10T15:37:15Z) - FENet: Focusing Enhanced Network for Lane Detection [0.0]
この研究は、Focusing Smpling、Partial Field of View Evaluation、Enhanced FPN Architecture、Directional IoU Lossで拡張されたネットワークのパイオニアである。
実験では、均一なアプローチとは異なり、重要な遠隔の細部を強調しながら、集中サンプリング戦略を実証した。
今後の方向性には、道路上のデータ収集や、補完的な2つのフレームワークの統合などが含まれる。
論文 参考訳(メタデータ) (2023-12-28T17:52:09Z) - V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - DeepWORD: A GCN-based Approach for Owner-Member Relationship Detection
in Autonomous Driving [2.895229237964064]
グラフ畳み込みネットワーク(GCN)の設計により, 革新的な関係予測手法であるDeepWORDを提案する。
具体的には,局所相関を持つ特徴マップをノードの入力として活用し,情報豊かさを向上させる。
大規模ベンチマークとしてWORDと呼ばれるアノテートされたオーナーとメンバーの関係データセットを確立します。
論文 参考訳(メタデータ) (2021-03-30T06:12:29Z) - Coordinate Attention for Efficient Mobile Network Design [96.40415345942186]
チャネルの注目に位置情報を埋め込むことにより,モバイルネットワークに対する新たな注意メカニズムを提案する。
2次元グローバルプーリングにより特徴テンソルを単一特徴ベクトルに変換するチャネルアテンションとは異なり、座標アテンションはチャネルアテンションを2つの1次元特徴符号化プロセスに分解する。
座標の注意はImageNetの分類に有用であり、オブジェクト検出やセマンティックセグメンテーションといった下流タスクではよりうまく振る舞う。
論文 参考訳(メタデータ) (2021-03-04T09:18:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。