論文の概要: Pandar128 dataset for lane line detection
- arxiv url: http://arxiv.org/abs/2511.07084v1
- Date: Mon, 10 Nov 2025 13:18:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.266661
- Title: Pandar128 dataset for lane line detection
- Title(参考訳): 線線検出のためのPandar128データセット
- Authors: Filip Beránek, Václav Diviš, Ivan Gruber,
- Abstract要約: Pandar128は128ビームのLiDARを使用したレーン線検出のための最大の公開データセットである。
52,000枚以上のカメラフレームと34,000枚のLiDARスキャンが含まれており、ドイツの様々な現実世界で撮影されている。
また,このデータセットを補完するために,車線再建のための軽量ベースライン法であるSimpleLidarLaneを導入する。
- 参考スコア(独自算出の注目度): 0.30586855806896035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Pandar128, the largest public dataset for lane line detection using a 128-beam LiDAR. It contains over 52,000 camera frames and 34,000 LiDAR scans, captured in diverse real-world conditions in Germany. The dataset includes full sensor calibration (intrinsics, extrinsics) and synchronized odometry, supporting tasks such as projection, fusion, and temporal modeling. To complement the dataset, we also introduce SimpleLidarLane, a light-weight baseline method for lane line reconstruction that combines BEV segmentation, clustering, and polyline fitting. Despite its simplicity, our method achieves strong performance under challenging various conditions (e.g., rain, sparse returns), showing that modular pipelines paired with high-quality data and principled evaluation can compete with more complex approaches. Furthermore, to address the lack of standardized evaluation, we propose a novel polyline-based metric - Interpolation-Aware Matching F1 (IAM-F1) - that employs interpolation-aware lateral matching in BEV space. All data and code are publicly released to support reproducibility in LiDAR-based lane detection.
- Abstract(参考訳): 128ビームのLiDARを用いて、レーン線検出のための最大の公開データセットであるPandar128を提示する。
52,000枚以上のカメラフレームと34,000枚のLiDARスキャンが含まれており、ドイツの様々な現実世界で撮影されている。
データセットには、完全なセンサーキャリブレーション(内在性、外在性)と同期オドメトリーが含まれ、投影、融合、時間モデリングなどのタスクをサポートする。
データセットを補完するために,BEVセグメンテーション,クラスタリング,ポリラインフィッティングを組み合わせた軽量なレーンライン再構築法であるSimpleLidarLaneを導入する。
その単純さにもかかわらず, 様々な条件(雨, スパースリターンなど)で高い性能を達成し, 高品質なデータと組み合わせたモジュールパイプラインが, より複雑なアプローチと競合することを示す。
さらに, 標準化された評価の欠如に対処するため, BEV空間における補間対応の側方マッチングを用いた補間認識マッチングF1(IAM-F1)を提案する。
すべてのデータとコードは、LiDARベースの車線検出の再現性をサポートするために公開されている。
関連論文リスト
- LAMP: Data-Efficient Linear Affine Weight-Space Models for Parameter-Controlled 3D Shape Generation and Extrapolation [4.182541493191528]
制御可能かつ解釈可能な3D生成のためのフレームワークであるLAMPを紹介する。
LAMPをDrivAerNet++とBlendedNetの2つの3次元パラメトリック幾何ベンチマークで評価した。
以上の結果から,LAMPは制御可能で,データ効率が高く,安全な3D生成が可能であることが示唆された。
論文 参考訳(メタデータ) (2025-10-26T02:12:20Z) - Multimodal HD Mapping for Intersections by Intelligent Roadside Units [21.3691460430126]
複素交叉のハイデフィニション(HD)意味マッピングは、車両ベースのアプローチに重大な課題をもたらす。
本稿では,高度インテリジェントロードサイドユニット(IRU)を活用したカメラ-LiDAR融合フレームワークを提案する。
本稿では,V2X-Seqデータセットの体系的拡張とアノテーションを通じて開発された包括的データセットであるRS-seqを提案する。
論文 参考訳(メタデータ) (2025-07-11T08:45:56Z) - Mixed Signals: A Diverse Point Cloud Dataset for Heterogeneous LiDAR V2X Collaboration [57.3519952529079]
車両間協調認識(V2X)は、単車知覚システムの限界に対処するための有望な解決策として登場した。
これらのギャップに対処するために、45.1kの点雲と240.6kのバウンディングボックスを備えた総合的なV2XデータセットであるMixed Signalsを紹介した。
私たちのデータセットは10クラスのポイントクラウドとバウンディングボックスアノテーションを提供し、認識トレーニングのための信頼性の高いデータを確保します。
論文 参考訳(メタデータ) (2025-02-19T23:53:00Z) - A Framework for Fine-Tuning LLMs using Heterogeneous Feedback [69.51729152929413]
ヘテロジニアスフィードバックを用いた大規模言語モデル(LLM)の微調整フレームワークを提案する。
まず、不均一なフィードバックデータをSFTやRLHFなどの手法と互換性のある単一の監視形式にまとめる。
次に、この統合されたフィードバックデータセットから、性能向上を得るために高品質で多様なサブセットを抽出する。
論文 参考訳(メタデータ) (2024-08-05T23:20:32Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,新しい駆動ビュー合成評価のための合成データセットを提案する。
トレーニングコースから逸脱した画像を1~4ドル(約1,400円)で撮影する。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - PSE-Match: A Viewpoint-free Place Recognition Method with Parallel
Semantic Embedding [9.265785042748158]
PSE-Matchは3次元ポイントクラウドモデルから分離されたセマンティック属性の並列意味解析に基づく視点自由場所認識手法である。
PSE-Matchは、分岐場所学習ネットワークを組み込んで、球面調和領域を通じて異なる意味的属性を並列にキャプチャする。
論文 参考訳(メタデータ) (2021-08-01T22:16:40Z) - MULLS: Versatile LiDAR SLAM via Multi-metric Linear Least Square [4.449835214520727]
MULLSは効率的で低ドリフトで多用途な3D LiDAR SLAMシステムである。
フロントエンドでは, 2次元地上フィルタと主成分分析を用いて, 各フレームから大まかに分類された特徴点を抽出する。
バックエンドでは、定期的に記憶されている履歴サブマップ間で階層的なポーズグラフ最適化を行い、デッドレコメンデーションによるドリフトを低減する。
KITTIベンチマークでは、MULLSはリアルタイムパフォーマンスでLiDARのみのSLAMシステムにランクインしている。
論文 参考訳(メタデータ) (2021-02-07T10:42:42Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z) - LiDAR guided Small obstacle Segmentation [14.880698940693609]
道路上の小さな障害物は自動運転に不可欠である。
スパースLiDARとモノクルビジョンのマルチモーダルフレームワークを用いて,そのような障害を確実に検出する手法を提案する。
コンテキストをモノケプティックなセマンティックセグメンテーションフレームワークに追加入力として入力すると、性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-03-12T18:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。