論文の概要: Adaptive Feature Fusion for Cooperative Perception using LiDAR Point
Clouds
- arxiv url: http://arxiv.org/abs/2208.00116v1
- Date: Sat, 30 Jul 2022 01:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:42:20.401071
- Title: Adaptive Feature Fusion for Cooperative Perception using LiDAR Point
Clouds
- Title(参考訳): LiDAR点雲を用いた協調知覚のための適応的特徴融合
- Authors: D. Qiao and F. Zulkernine
- Abstract要約: 協調認識により、コネクテッド・オートモービルは近隣の他のCAVと対話することができる。
盲点、低解像度、気象効果などの従来の車体知覚の限界を補うことができる。
CODDデータセットを用いた車両と歩行者の両方の協調認識性能の評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative perception allows a Connected Autonomous Vehicle (CAV) to
interact with the other CAVs in the vicinity to enhance perception of
surrounding objects to increase safety and reliability. It can compensate for
the limitations of the conventional vehicular perception such as blind spots,
low resolution, and weather effects. An effective feature fusion model for the
intermediate fusion methods of cooperative perception can improve feature
selection and information aggregation to further enhance the perception
accuracy. We propose adaptive feature fusion models with trainable feature
selection modules. One of our proposed models Spatial-wise Adaptive feature
Fusion (S-AdaFusion) outperforms all other state-of-the-art models on the two
subsets of OPV2V dataset: default CARLA towns for vehicle detection and the
Culver City for domain adaptation. In addition, previous studies have only
tested cooperative perception for vehicle detection. A pedestrian, however, is
much more likely to be seriously injured in a traffic accident. We evaluate the
performance of cooperative perception for both vehicle and pedestrian detection
using the CODD dataset. Our architecture achieves higher Average Precision (AP)
than other existing models for both vehicle and pedestrian detection on the
CODD dataset. The experiments demonstrate that cooperative perception also can
improve the pedestrian detection accuracy compared to the conventional
perception process.
- Abstract(参考訳): 協調認識により、コネクテッド・オートモービル(CAV)は周囲の他のCAVと相互作用し、周囲の物体の認識を高め、安全性と信頼性を高めることができる。
ブラインドスポット、低解像度、気象効果などの従来の車両知覚の限界を補うことができる。
協調的知覚の中間融合法に有効な特徴融合モデルは、特徴選択と情報集約を改善し、知覚精度をさらに高めることができる。
訓練可能な特徴選択モジュールを用いた適応的特徴融合モデルを提案する。
提案したモデルのうちの1つは、OPV2Vデータセットの2つのサブセット(デフォルトの車検出用CARLA町とドメイン適応用Culver City)において、他の最先端モデルよりも優れている。
さらに、以前の研究では、車両検出のための協調的な認識のみを検査した。
しかし、歩行者は交通事故で重傷を負う可能性が高い。
CODDデータセットを用いた車両と歩行者の両方の協調認識性能の評価を行った。
当社のアーキテクチャは,CODDデータセット上での車両および歩行者検出において,既存のモデルよりも高い平均精度(AP)を実現する。
実験では,協調的知覚が歩行者検出精度の向上にも寄与することを示した。
関連論文リスト
- SmartCooper: Vehicular Collaborative Perception with Adaptive Fusion and
Judger Mechanism [23.824400533836535]
通信最適化と判断機構を組み込んだ適応型協調認識フレームワークであるSmartCooperを紹介する。
以上の結果から,非ジュッジャー方式に比べて通信コストが23.10%大幅に削減された。
論文 参考訳(メタデータ) (2024-02-01T04:15:39Z) - SiCP: Simultaneous Individual and Cooperative Perception for 3D Object
Detection in Connected and Automated Vehicles [15.636723407479444]
連結車両と自動車両の協調認識は、伝統的に2台以上の車両の特徴マップの融合によって達成される。
この欠点は、車両資源が2つの知覚モデルを同時に使用するには不十分なため、協調的な知覚の採用を妨げる。
我々は、最先端のスタンドアロン認識バックボーンを幅広くサポートする汎用フレームワークである、同時個人協調知覚(SiCP)を提示する。
論文 参考訳(メタデータ) (2023-12-08T04:12:26Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Decentralized cooperative perception for autonomous vehicles: Learning
to value the unknown [1.2246649738388387]
我々は、エージェントが完全な知覚を求めて活動する分散的なコラボレーション、すなわちピアツーピアを提案する。
我々は,未知の車両を自我車に要求するだけで,通常の通信パラダイムを逆転する通信方針を学習する方法を提案する。
特に,局所予測可能なVAE (LP-VAE) を提案する。
論文 参考訳(メタデータ) (2022-12-12T00:01:27Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study [38.65843674620544]
我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
論文 参考訳(メタデータ) (2021-12-07T23:42:21Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - CoFF: Cooperative Spatial Feature Fusion for 3D Object Detection on
Autonomous Vehicles [20.333191597167847]
CoFFは、自動運転車の検知精度と有効検出範囲の両方において、大幅な改善を実現している。
その結果,自動走行車における検出精度と有効検出範囲の両面で,CoFFは著しく向上していることがわかった。
論文 参考訳(メタデータ) (2020-09-24T22:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。