論文の概要: V2VSSC: A 3D Semantic Scene Completion Benchmark for Perception with
Vehicle to Vehicle Communication
- arxiv url: http://arxiv.org/abs/2402.04671v1
- Date: Wed, 7 Feb 2024 08:55:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:01:39.551831
- Title: V2VSSC: A 3D Semantic Scene Completion Benchmark for Perception with
Vehicle to Vehicle Communication
- Title(参考訳): v2vssc:車間通信による知覚のための3次元意味シーン補完ベンチマーク
- Authors: Yuanfang Zhang, Junxuan Li, Kaiqing Luo, Yiying Yang, Jiayi Han, Nian
Liu, Denghui Qin, Peng Han, Chengpei Xu
- Abstract要約: 本稿では,車両間通信(V2V)を利用したSSC問題に対する基礎的解法を提案する。
そこで我々は,自動運転車がセンサビューからセンサ情報を共有し,共同作業を行うための,初の汎用協調型SCフレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.37323901393923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic scene completion (SSC) has recently gained popularity because it can
provide both semantic and geometric information that can be used directly for
autonomous vehicle navigation. However, there are still challenges to overcome.
SSC is often hampered by occlusion and short-range perception due to sensor
limitations, which can pose safety risks. This paper proposes a fundamental
solution to this problem by leveraging vehicle-to-vehicle (V2V) communication.
We propose the first generalized collaborative SSC framework that allows
autonomous vehicles to share sensing information from different sensor views to
jointly perform SSC tasks. To validate the proposed framework, we further build
V2VSSC, the first V2V SSC benchmark, on top of the large-scale V2V perception
dataset OPV2V. Extensive experiments demonstrate that by leveraging V2V
communication, the SSC performance can be increased by 8.3% on geometric metric
IoU and 6.0% mIOU.
- Abstract(参考訳): セマンティックシーン補完(SSC)は、自動運転車のナビゲーションに直接使用できる意味情報と幾何学的情報の両方を提供することができるため、最近人気を集めている。
しかし、まだ克服すべき課題がある。
SSCはしばしば、センサーの制限による閉塞と短距離知覚によって妨げられ、安全リスクを引き起こす。
本稿では,車両間通信(v2v)を利用したこの問題に対する基礎的解決法を提案する。
そこで我々は,自動運転車がセンサビューからセンサ情報を共有し,共同作業を行うための,初の汎用協調型SCフレームワークを提案する。
提案するフレームワークを検証するため,大規模なV2V知覚データセットOPV2V上に,V2V SSCベンチマークの最初のV2VSSCを構築する。
大規模な実験では、V2V通信を利用することで、幾何計量IoUの8.3%、mIOUの6.0%でSSC性能が向上することを示した。
関連論文リスト
- LiDAR-based End-to-end Temporal Perception for Vehicle-Infrastructure Cooperation [16.465037559349323]
LET-VIC(LDAR-based End-to-End Tracking framework for Vehicle-Temporal Cooperation)を紹介する。
LET-VICはV2X通信を利用して、車両とインフラの両方のセンサーから空間データと時間データを融合することで、時間知覚を高める。
V2X-Seq-SPDデータセットの実験では、LET-VICはベースラインモデルよりも優れており、少なくともmAPが13.7%、AMOTAが13.1%改善している。
論文 参考訳(メタデータ) (2024-11-22T13:34:29Z) - Vanishing-Point-Guided Video Semantic Segmentation of Driving Scenes [70.08318779492944]
私たちは、より効果的なセグメンテーションのために消滅点(VP)を最初に利用しました。
当社の新しいVSS用ネットワークであるVPSegには,この静的および動的VPプリエントを正確に利用する2つのモジュールが組み込まれています。
論文 参考訳(メタデータ) (2024-01-27T01:01:58Z) - SSCBench: A Large-Scale 3D Semantic Scene Completion Benchmark for Autonomous Driving [87.8761593366609]
SSCBenchは、広く使用されている自動車データセットのシーンを統合するベンチマークである。
我々は、単眼、三眼、クラウド入力を用いて、性能ギャップを評価するモデルをベンチマークする。
クロスドメインの一般化テストを簡単にするために、さまざまなデータセットにまたがったセマンティックラベルを統一しています。
論文 参考訳(メタデータ) (2023-06-15T09:56:33Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - CV2X-LOCA: Roadside Unit-Enabled Cooperative Localization Framework for
Autonomous Vehicles [1.6624933615451842]
都市部での安全な運転を可能にするために、正確なロバストなローカライゼーションシステムは、自動運転車(AV)にとって不可欠である。
セルラーV2X(C-V2X)無線通信の可能性を検討した。
我々は,C-V2Xチャネル状態情報のみを用いてレーンレベルの位置決め精度を実現する,第1の道路側ユニット(RSU)対応協調位置決めフレームワーク,CV2X-LOCAを提案する。
論文 参考訳(メタデータ) (2023-04-03T01:35:54Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - V2XP-ASG: Generating Adversarial Scenes for Vehicle-to-Everything
Perception [37.41995438002604]
V2X知覚システムはすぐに大規模に展開される。
現実のデプロイメントに先立って,困難なトラフィックシナリオの下で,パフォーマンスの評価と改善を行なうには,どうすればよいのでしょう?
本稿では,V2XP-ASGのオープンなシーン生成手法を提案する。
論文 参考訳(メタデータ) (2022-09-27T20:34:41Z) - DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative
3D Object Detection [8.681912341444901]
DAIR-V2Xは、自動車・インフラ協調自律運転の現実シナリオから得られた、最初の大規模でマルチモードのマルチビューデータセットである。
DAIR-V2Xは71254のLiDARフレームと71254のカメラフレームで構成される。
論文 参考訳(メタデータ) (2022-04-12T07:13:33Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。