論文の概要: OSDaR23: Open Sensor Data for Rail 2023
- arxiv url: http://arxiv.org/abs/2305.03001v1
- Date: Thu, 4 May 2023 17:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 14:38:27.194953
- Title: OSDaR23: Open Sensor Data for Rail 2023
- Title(参考訳): OSDaR23:Rail 2023用のオープンセンサーデータ
- Authors: Rustam Tagiew, Martin K\"oppel, Karsten Schwalbe, Patrick Denzler,
Philipp Neumaier, Tobias Klockau, Martin Boekhoff, Pavel Klasek, Roman Tilly
- Abstract要約: この出版物は、2021年9月にドイツのハンブルクで撮影された21のシーケンスのマルチセンサーデータセットであるOSDaR23を提示している。
生データに加えて、204091のポリリン、多角形、矩形、および20の異なるオブジェクトクラスに対する立方体アノテーションが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For driverless train operation on mainline railways, several tasks need to be
implemented by technical systems. One of the most challenging tasks is to
monitor the train's driveway and its surroundings for potential obstacles due
to long braking distances. Machine learning algorithms can be used to analyze
data from vision sensors such as infrared (IR) and visual (RGB) cameras,
lidars, and radars to detect objects. Such algorithms require large amounts of
annotated data from objects in the rail environment that may pose potential
obstacles, as well as rail-specific objects such as tracks or catenary poles,
as training data. However, only very few datasets are publicly available and
these available datasets typically involve only a limited number of sensors.
Datasets and trained models from other domains, such as automotive, are useful
but insufficient for object detection in the railway context. Therefore, this
publication presents OSDaR23, a multi-sensor dataset of 21 sequences captured
in Hamburg, Germany, in September 2021. The sensor setup consisted of multiple
calibrated and synchronized IR/RGB cameras, lidars, a radar, and position and
acceleration sensors front-mounted on a railway vehicle. In addition to raw
data, the dataset contains 204091 polyline, polygonal, rectangle and cuboid
annotations for 20 different object classes. This dataset can also be used for
tasks going beyond collision prediction, which are listed in this paper.
- Abstract(参考訳): 本線での無人列車の運行には、いくつかのタスクを技術システムによって実装する必要がある。
最も困難な作業の1つは、長いブレーキ距離のため、列車の車道とその周囲の障害物を監視することである。
機械学習アルゴリズムは、赤外線(ir)や視覚(rgb)カメラ、ライダー、レーダーなどの視覚センサーからのデータを分析して物体を検出するために使用できる。
このようなアルゴリズムは、訓練データとして、潜在的な障害となる可能性のあるレール環境の物体や、軌道やカテナリーポールなどのレール固有の物体から、大量の注釈付きデータを要求する。
しかし、公開されているデータセットはごくわずかであり、これらのデータセットは通常、限られた数のセンサーのみを含む。
自動車などの他のドメインからのデータセットとトレーニングされたモデルは有用だが、鉄道コンテキストにおけるオブジェクト検出には不十分である。
そこで本稿では2021年9月にドイツのハンブルクで撮影された21のシーケンスからなるマルチセンサーデータセットosdar23を提案する。
センサーのセットアップは、複数の校正および同期IR/RGBカメラ、ライダー、レーダー、および鉄道車両に搭載された位置と加速度センサーで構成されていた。
データセットは生データに加えて、20の異なるオブジェクトクラスに対して204091のポリライン、多角形、矩形、立方体アノテーションを含んでいる。
このデータセットは、この論文にリストされている衝突予測を超えたタスクにも使用することができる。
関連論文リスト
- Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - TrainSim: A Railway Simulation Framework for LiDAR and Camera Dataset
Generation [1.2165229201148093]
本稿では,仮想環境下で現実的な鉄道シナリオを生成できる視覚シミュレーションフレームワークを提案する。
シミュレーションされたLiDARとカメラから慣性データとラベル付きデータセットを自動的に生成する。
論文 参考訳(メタデータ) (2023-02-28T11:00:13Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Large Scale Real-World Multi-Person Tracking [68.27438015329807]
本稿では,新しい大規模多人数追跡データセットであるtexttPersonPath22を提案する。
MOT17、HiEve、MOT20などの高品質なマルチオブジェクト追跡データセットよりも桁違いに大きい。
論文 参考訳(メタデータ) (2022-11-03T23:03:13Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。