論文の概要: LCV2I: Communication-Efficient and High-Performance Collaborative Perception Framework with Low-Resolution LiDAR
- arxiv url: http://arxiv.org/abs/2502.17039v1
- Date: Mon, 24 Feb 2025 10:46:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:53:58.912854
- Title: LCV2I: Communication-Efficient and High-Performance Collaborative Perception Framework with Low-Resolution LiDAR
- Title(参考訳): LCV2I:低分解能LiDARを用いた通信効率・高性能協調認識フレームワーク
- Authors: Xinxin Feng, Haoran Sun, Haifeng Zheng, Huacong Chen, Wenqiang Chen,
- Abstract要約: V2I(Van-to-Infrastructure)は、インフラのセンサーによって収集されたデータを活用して、車両の知覚能力を高める。
ライダーは協調的な知覚においてよく使われるセンサーであり、インテリジェントな車両やインフラに広く備わっている。
低コストなV2Iを実現するためには、LiDARのコスト削減が不可欠である。
- 参考スコア(独自算出の注目度): 17.23456149081362
- License:
- Abstract: Vehicle-to-Infrastructure (V2I) collaborative perception leverages data collected by infrastructure's sensors to enhance vehicle perceptual capabilities. LiDAR, as a commonly used sensor in cooperative perception, is widely equipped in intelligent vehicles and infrastructure. However, its superior performance comes with a correspondingly high cost. To achieve low-cost V2I, reducing the cost of LiDAR is crucial. Therefore, we study adopting low-resolution LiDAR on the vehicle to minimize cost as much as possible. However, simply reducing the resolution of vehicle's LiDAR results in sparse point clouds, making distant small objects even more blurred. Additionally, traditional communication methods have relatively low bandwidth utilization efficiency. These factors pose challenges for us. To balance cost and perceptual accuracy, we propose a new collaborative perception framework, namely LCV2I. LCV2I uses data collected from cameras and low-resolution LiDAR as input. It also employs feature offset correction modules and regional feature enhancement algorithms to improve feature representation. Finally, we use regional difference map and regional score map to assess the value of collaboration content, thereby improving communication bandwidth efficiency. In summary, our approach achieves high perceptual performance while substantially reducing the demand for high-resolution sensors on the vehicle. To evaluate this algorithm, we conduct 3D object detection in the real-world scenario of DAIR-V2X, demonstrating that the performance of LCV2I consistently surpasses currently existing algorithms.
- Abstract(参考訳): V2Iコラボレーティブ・インセプションは、インフラのセンサーが収集したデータを活用して車両の知覚能力を高める。
LiDARは、協調的な知覚においてよく使われるセンサーであり、インテリジェントな車やインフラに広く備わっている。
しかし、その優れた性能にはそれに伴う高いコストが伴う。
低コストなV2Iを実現するためには、LiDARのコスト削減が不可欠である。
そこで本研究では,低解像度LiDARを車載に採用し,コストを極力抑えることを目的とした。
しかし、単に車のLiDARの解像度を下げれば、小さな物体がよりぼやけてしまう。
さらに、従来の通信方式は帯域利用効率が比較的低い。
これらの要因は我々に課題をもたらす。
コストと知覚精度のバランスをとるために,LCV2Iという新しい協調認識フレームワークを提案する。
LCV2Iは、カメラから収集されたデータと低解像度のLiDARを入力として使用する。
また、特徴表現を改善するために、特徴オフセット補正モジュールと地域特徴拡張アルゴリズムも採用している。
最後に、地域差分マップと地域スコアマップを用いて、協調コンテンツの価値を評価し、通信帯域幅効率を向上させる。
要約して,本手法は車載高解像度センサの需要を大幅に低減しつつ,高い知覚性能を実現する。
このアルゴリズムを評価するために,DAIR-V2Xの現実シナリオにおいて3次元オブジェクト検出を行い,LCV2Iの性能が既存のアルゴリズムを一貫して上回っていることを示す。
関連論文リスト
- FLARES: Fast and Accurate LiDAR Multi-Range Semantic Segmentation [52.89847760590189]
3Dシーンの理解は、自動運転における重要な課題である。
近年の手法では、レンジビュー表現を利用して処理効率を向上している。
範囲ビューに基づくLiDARセマンティックセマンティックセグメンテーションのためのワークフローを再設計する。
論文 参考訳(メタデータ) (2025-02-13T12:39:26Z) - Deep Reinforcement Learning-Based User Scheduling for Collaborative Perception [24.300126250046894]
車両間通信(V2X)を用いて、協調的知覚が知覚精度を向上させることを想定する。
通信資源が限られているため、すべてのユニットが点雲や高精細ビデオなどのセンシングデータを送信するのは現実的ではない。
協調認識のための深層強化学習に基づくV2Xユーザスケジューリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-12T04:45:00Z) - LiDAR-based End-to-end Temporal Perception for Vehicle-Infrastructure Cooperation [16.465037559349323]
LET-VIC(LDAR-based End-to-End Tracking framework for Vehicle-Temporal Cooperation)を紹介する。
LET-VICはV2X通信を利用して、車両とインフラの両方のセンサーから空間データと時間データを融合することで、時間知覚を高める。
V2X-Seq-SPDデータセットの実験では、LET-VICはベースラインモデルよりも優れており、少なくともmAPが13.7%、AMOTAが13.1%改善している。
論文 参考訳(メタデータ) (2024-11-22T13:34:29Z) - Semantic Communication for Cooperative Perception using HARQ [51.148203799109304]
我々は重要セマンティック情報を抽出するために重要地図を活用し、協調的な知覚セマンティックコミュニケーションフレームワークを導入する。
周波数分割多重化(OFDM)とチャネル推定と等化戦略を併用して,時間変化によるマルチパスフェーディングによる課題に対処する。
我々は,ハイブリッド自動繰り返し要求(HARQ)の精神において,我々の意味コミュニケーションフレームワークと統合された新しい意味エラー検出手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T08:53:26Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - 3D Vehicle Detection Using Camera and Low-Resolution LiDAR [6.293059137498174]
低解像度LiDARと単眼カメラを用いたバードアイビュー(BEV)における3次元物体検出のための新しいフレームワークを提案する。
低解像度のLiDARポイントクラウドと単眼像を入力として、深度補完ネットワークは高密度なポイントクラウドを生成できます。
容易かつ適度なケースでは、検出結果は64ライン高精細lidarと同等である。
論文 参考訳(メタデータ) (2021-05-04T21:08:20Z) - Improving Perception via Sensor Placement: Designing Multi-LiDAR Systems
for Autonomous Vehicles [16.45799795374353]
確率的占有グリッド(POG)に基づく計算が容易な情報理論的サーロゲートコストメトリックを提案し、最大センシングのためのLiDAR配置を最適化する。
以上の結果から,センサ配置は3Dポイントクラウドによる物体検出において重要な要素であり,最先端の認識アルゴリズムでは10%の精度で性能が変動する可能性が示唆された。
論文 参考訳(メタデータ) (2021-05-02T01:52:18Z) - A Unified Light Framework for Real-time Fault Detection of Freight Train
Images [16.721758280029302]
貨物列車のリアルタイム故障検出は、鉄道輸送の安全と最適運転を保証する上で重要な役割を担っている。
深層学習に基づくアプローチの有望な結果にもかかわらず、貨物列車画像におけるこれらの断層検出器の性能は精度と効率の両立には程遠い。
本稿では,リソース要求の少ないリアルタイム動作をサポートしながら,検出精度を向上させるための統一光フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-31T05:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。