論文の概要: Railway LiDAR semantic segmentation based on intelligent semi-automated data annotation
- arxiv url: http://arxiv.org/abs/2410.13383v2
- Date: Tue, 19 Nov 2024 08:49:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:32:54.837478
- Title: Railway LiDAR semantic segmentation based on intelligent semi-automated data annotation
- Title(参考訳): インテリジェント半自動データアノテーションに基づく鉄道LiDARセマンティックセマンティックセグメンテーション
- Authors: Florian Wulff, Bernd Schaeufele, Julian Pfeifer, Ilja Radusch,
- Abstract要約: 本稿では,スキャンと画像の併用による2DPassネットワークアーキテクチャに基づくポイントワイズ3次元セマンティックセマンティックセマンティックセマンティクスのアプローチを提案する。
また,ドイツの鉄道線路に記録された必要なデータセットを効率よく正確にラベル付けするために,半自動のインテリジェントデータアノテーション手法を提案する。
我々は、鉄道環境からのカメラやLiDARデータを含むレールデータを注釈し、画像セグメンテーションネットワークを用いて生のLiDAR点雲を転送し、アクティブラーニングを効率的に活用する最先端の3DLiDARセグメンテーションネットワークを訓練する。
- 参考スコア(独自算出の注目度): 0.48212500317840945
- License:
- Abstract: Automated vehicles rely on an accurate and robust perception of the environment. Similarly to automated cars, highly automated trains require an environmental perception. Although there is a lot of research based on either camera or LiDAR sensors in the automotive domain, very few contributions for this task exist yet for automated trains. Additionally, no public dataset or described approach for a 3D LiDAR semantic segmentation in the railway environment exists yet. Thus, we propose an approach for a point-wise 3D semantic segmentation based on the 2DPass network architecture using scans and images jointly. In addition, we present a semi-automated intelligent data annotation approach, which we use to efficiently and accurately label the required dataset recorded on a railway track in Germany. To improve performance despite a still small number of labeled scans, we apply an active learning approach to intelligently select scans for the training dataset. Our contributions are threefold: We annotate rail data including camera and LiDAR data from the railway environment, transfer label the raw LiDAR point clouds using an image segmentation network, and train a state-of-the-art 3D LiDAR semantic segmentation network efficiently leveraging active learning. The trained network achieves good segmentation results with a mean IoU of 71.48% of 9 classes.
- Abstract(参考訳): 自動走行車は環境の正確で堅牢な認識に依存している。
自動車と同様に、高度に自動化された列車は環境認識を必要とする。
自動車分野ではカメラまたはLiDARセンサーに基づく多くの研究があるが、このタスクへの貢献はほとんどない。
さらに、鉄道環境における3次元LiDARセマンティックセマンティックセグメンテーションのためのパブリックデータセットや記述されたアプローチは、まだ存在しない。
そこで本研究では,スキャンと画像の併用による2DPassネットワークアーキテクチャに基づくポイントワイズ3次元セマンティックセマンティックセマンティックセマンティクスのアプローチを提案する。
さらに,ドイツの鉄道線路に記録された必要なデータセットを効率よく,正確にラベル付けするための,半自動インテリジェントなデータアノテーション手法を提案する。
ラベル付きスキャンがまだ少ないにもかかわらず、パフォーマンスを向上させるため、トレーニングデータセットのスキャンをインテリジェントに選択するためにアクティブな学習アプローチを適用する。
我々は、鉄道環境からのカメラやLiDARデータを含むレールデータを注釈し、画像セグメンテーションネットワークを用いて生のLiDAR点雲を転送し、アクティブラーニングを効率的に活用する最先端の3DLiDARセグメンテーションネットワークを訓練する。
トレーニングされたネットワークは、9クラスの71.48%の平均IoUで、良好なセグメンテーション結果を得る。
関連論文リスト
- Accurate Automatic 3D Annotation of Traffic Lights and Signs for Autonomous Driving [0.0]
交通信号や道路標識などの交通管理対象の3D検出は、自動運転車にとって不可欠である。
本稿では,信号機や標識の3次元バウンディングボックスアノテーションを自動生成する手法を提案する。
論文 参考訳(メタデータ) (2024-09-19T09:50:03Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - LiDAR-BEVMTN: Real-Time LiDAR Bird's-Eye View Multi-Task Perception Network for Autonomous Driving [12.713417063678335]
本稿では,LiDARに基づくオブジェクト検出,意味論,動作セグメンテーションのためのリアルタイムマルチタスク畳み込みニューラルネットワークを提案する。
オブジェクト検出を選択的に改善するためのセマンティック・ウェイト・アンド・ガイダンス(SWAG)モジュールを提案する。
我々は,2つのタスク,セマンティックとモーションセグメンテーション,および3Dオブジェクト検出のための最先端性能に近い2つのタスクに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-07-17T21:22:17Z) - TrainSim: A Railway Simulation Framework for LiDAR and Camera Dataset
Generation [1.2165229201148093]
本稿では,仮想環境下で現実的な鉄道シナリオを生成できる視覚シミュレーションフレームワークを提案する。
シミュレーションされたLiDARとカメラから慣性データとラベル付きデータセットを自動的に生成する。
論文 参考訳(メタデータ) (2023-02-28T11:00:13Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Real-Time And Robust 3D Object Detection with Roadside LiDARs [20.10416681832639]
道路沿いのLiDARにおける交通参加者をリアルタイムに検出できる3次元物体検出モデルを設計する。
我々のモデルは既存の3D検出器をベースラインとして使用し、精度を向上させる。
スマートシティのアプリケーションに使用できるLiDARベースの3D検出器に多大な貢献をしています。
論文 参考訳(メタデータ) (2022-07-11T21:33:42Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。