論文の概要: Been There, Scanned That: Nostalgia-Driven LiDAR Compression for Self-Driving Cars
- arxiv url: http://arxiv.org/abs/2511.00652v1
- Date: Sat, 01 Nov 2025 18:25:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.8783
- Title: Been There, Scanned That: Nostalgia-Driven LiDAR Compression for Self-Driving Cars
- Title(参考訳): 自走車のためのノスタルジア駆動LiDAR圧縮技術(動画あり)
- Authors: Ali Khalid, Jaiaid Mobin, Sumanth Rao Appala, Avinash Maurya, Stephany Berrio Perez, M. Mustafa Rafique, Fawad Ahmad,
- Abstract要約: 自動運転車は1日に数テラバイトのセンサーデータを生成することができる。
このデータの大部分は、LiDARのような深度センサーによって生成された3Dポイント雲で構成されている。
ネットワークとストレージのコストを削減するため、本稿ではDejaViewを紹介します。
- 参考スコア(独自算出の注目度): 0.8348308362608684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An autonomous vehicle can generate several terabytes of sensor data per day. A significant portion of this data consists of 3D point clouds produced by depth sensors such as LiDARs. This data must be transferred to cloud storage, where it is utilized for training machine learning models or conducting analyses, such as forensic investigations in the event of an accident. To reduce network and storage costs, this paper introduces DejaView. Although prior work uses interframe redundancies to compress data, DejaView searches for and uses redundancies on larger temporal scales (days and months) for more effective compression. We designed DejaView with the insight that the operating area of autonomous vehicles is limited and that vehicles mostly traverse the same routes daily. Consequently, the 3D data they collect daily is likely similar to the data they have captured in the past. To capture this, the core of DejaView is a diff operation that compactly represents point clouds as delta w.r.t. 3D data from the past. Using two months of LiDAR data, an end-to-end implementation of DejaView can compress point clouds by a factor of 210 at a reconstruction error of only 15 cm.
- Abstract(参考訳): 自動運転車は1日に数テラバイトのセンサーデータを生成することができる。
このデータの大部分は、LiDARのような深度センサーによって生成された3Dポイント雲で構成されている。
このデータはクラウドストレージに転送されなければならない。そこでは、機械学習モデルをトレーニングしたり、事故時の法医学的な調査のような分析を行うために使用される。
ネットワークとストレージのコストを削減するため、本稿ではDejaViewを紹介します。
以前の作業では、フレーム間の冗長性を使ってデータを圧縮するが、DejaViewはより効率的な圧縮のために、より大きな時間スケール(日月)で冗長性を探し、使用する。
私たちはDejaViewを、自動運転車の運転エリアが限られており、車両がほぼ毎日同じルートを走行しているという洞察で設計しました。
その結果、彼らが毎日収集する3Dデータは、過去に収集したデータと似ている可能性が高い。
これを捉えるために、DejaViewのコアは差分演算であり、過去のデルタw.r.t.3Dデータとしてコンパクトに点雲を表現している。
2ヶ月のLiDARデータを使用して、デジャビューのエンドツーエンド実装は、わずか15cmの復元誤差で210の係数で点雲を圧縮することができる。
関連論文リスト
- Teleoperated Driving: a New Challenge for 3D Object Detection in Compressed Point Clouds [7.46984123022864]
我々は、安全なTD操作を可能にするために、ポイントクラウドデータから車や歩行者の存在を検出する問題に取り組む。
我々は、自動運転のためのマルチモーダル、オープンソース、合成データセットであるSELMAデータセットを利用する。
本研究では, 最先端圧縮アルゴリズムとオブジェクト検出器の性能を, いくつかの測定基準の下で解析する。
論文 参考訳(メタデータ) (2025-06-13T14:07:00Z) - V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [61.58737390490639]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、350Kの注釈付きボックスを含む20Kの4Dレーダデータで構成されている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - PointCompress3D: A Point Cloud Compression Framework for Roadside LiDARs in Intelligent Transportation Systems [24.783727646151583]
この研究は、ロードサイドのLiDARに特化した新しいポイントクラウド圧縮フレームワークであるPointCompress3Dを紹介した。
実世界のTUMTrafデータセットファミリを用いて,3つの最先端圧縮手法を適応し,拡張し,統合し,評価する。
大規模な実験およびアブレーション研究において、データセット上でPSNR d2の94.46とBPPの6.54を達成した。
論文 参考訳(メタデータ) (2024-05-02T21:35:45Z) - Visual Point Cloud Forecasting enables Scalable Autonomous Driving [28.376086570498952]
視覚的自律運転アプリケーションは、セマンティクス、三次元幾何学、時間情報を同時に含む機能を必要とする。
我々は、下流のビジュアルエンコーダを事前訓練するための一般的なモデルViDARを提案する。
実験の結果、例えば3D検出における3.1%のNDS、モーション予測における10%のエラー削減、計画における衝突率15%の削減といった下流タスクが顕著に向上した。
論文 参考訳(メタデータ) (2023-12-29T15:44:13Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - A Quick Review on Recent Trends in 3D Point Cloud Data Compression
Techniques and the Challenges of Direct Processing in 3D Compressed Domain [3.169089186688223]
オブジェクトの検出、追跡、セグメンテーションのための3Dポイントクラウドデータの自動処理は、AIとデータサイエンスの分野における最新のトレンド研究である。
3Dポイントクラウド(LiDAR)の形で作成されているデータの量は、非常に大きいです。
研究者たちは現在、生成した大量のデータを処理するために、新しいデータ圧縮アルゴリズムを発明しようとしている。
論文 参考訳(メタデータ) (2020-07-08T12:56:58Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。