論文の概要: TrackletMapper: Ground Surface Segmentation and Mapping from Traffic
Participant Trajectories
- arxiv url: http://arxiv.org/abs/2209.05247v1
- Date: Mon, 12 Sep 2022 13:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:54:52.840811
- Title: TrackletMapper: Ground Surface Segmentation and Mapping from Traffic
Participant Trajectories
- Title(参考訳): TrackletMapper: 交通参加軌道からの地表面のセグメンテーションとマッピング
- Authors: Jannik Z\"urn, Sebastian Weber, Wolfram Burgard
- Abstract要約: TrackletMapperは、オブジェクトのトラックレットから歩道、道路、道路横断といった地上のタイプをアノテートするためのフレームワークである。
地表面マップを集約し、カメラ画像に投影することにより、さらなる性能向上のためにモデルを自己蒸留することができることを示す。
歩行者エリアで動作する移動ロボットのための,新しい大規模データセットについて,定性的かつ定量的に検証した。
- 参考スコア(独自算出の注目度): 24.817728268091976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustly classifying ground infrastructure such as roads and street crossings
is an essential task for mobile robots operating alongside pedestrians. While
many semantic segmentation datasets are available for autonomous vehicles,
models trained on such datasets exhibit a large domain gap when deployed on
robots operating in pedestrian spaces. Manually annotating images recorded from
pedestrian viewpoints is both expensive and time-consuming. To overcome this
challenge, we propose TrackletMapper, a framework for annotating ground surface
types such as sidewalks, roads, and street crossings from object tracklets
without requiring human-annotated data. To this end, we project the robot
ego-trajectory and the paths of other traffic participants into the ego-view
camera images, creating sparse semantic annotations for multiple types of
ground surfaces from which a ground segmentation model can be trained. We
further show that the model can be self-distilled for additional performance
benefits by aggregating a ground surface map and projecting it into the camera
images, creating a denser set of training annotations compared to the sparse
tracklet annotations. We qualitatively and quantitatively attest our findings
on a novel large-scale dataset for mobile robots operating in pedestrian areas.
Code and dataset will be made available at
http://trackletmapper.cs.uni-freiburg.de.
- Abstract(参考訳): 道路や横断歩道などの地上インフラのロバストな分類は、歩行者と一緒に動く移動ロボットにとって必須の課題である。
多くのセマンティックセグメンテーションデータセットが自動運転車で利用可能であるが、そのようなデータセットで訓練されたモデルは、歩行者空間で動くロボットにデプロイされるときに大きなドメインギャップを示す。
歩行者の観点から記録された手動の注釈画像は高価で時間を要する。
この課題を克服するために, 歩道, 道路, 踏切などの地表面タイプを, 人手による注釈データを必要としないアノテートするフレームワークであるtrackletmapperを提案する。
そこで本研究では,ロボットのエゴトラジェクタリーと他のトラヒック参加者の経路をエゴビューカメラ画像に投影し,地上セグメンテーションモデルを訓練可能な複数種類の地上面に対してスパースな意味的アノテーションを作成する。
さらに, 地表面地図を集約し, カメラ画像に投影することで, さらなる性能向上のために自己蒸留を行い, スパーストラックレットアノテーションと比較してより密集した訓練アノテーションを作成できることを示した。
歩行者エリアで動作する移動ロボットのための大規模データセットについて,定性的かつ定量的に検証した。
コードとデータセットはhttp://trackletmapper.cs.uni-freiburg.deで公開される。
関連論文リスト
- Learning Semantic Traversability with Egocentric Video and Automated Annotation Strategy [3.713586225621126]
ロボットは、シーンのセマンティック理解に基づいて、画像内のセマンティック・トラバース可能な地形を識別する能力を持つ必要がある。
この推論能力はセマンティックトラバーサビリティに基づいており、テストドメイン上で微調整されたセマンティックセグメンテーションモデルを使用して頻繁に達成される。
本稿では,エゴセントリックなビデオと自動アノテーションプロセスを用いて,セマンティック・トラバーサビリティ推定器を訓練するための効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-05T06:40:04Z) - Pedestrian Environment Model for Automated Driving [54.16257759472116]
歩行者の位置とポーズ情報を含む環境モデルを提案する。
画像から人間のポーズ推定器を用いて骨格情報を抽出する。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
論文 参考訳(メタデータ) (2023-08-17T16:10:58Z) - Video Killed the HD-Map: Predicting Multi-Agent Behavior Directly From
Aerial Images [14.689298253430568]
本稿では,最小限のアノテーションを必要とする航空画像ベースマップ(AIM)の表現を提案し,歩行者や車両などの交通機関に道路状況情報を提供する。
以上の結果から,特にAIM表現を用いた歩行者の競合的マルチエージェント軌道予測性能が示された。
論文 参考訳(メタデータ) (2023-05-19T17:48:01Z) - APE: An Open and Shared Annotated Dataset for Learning Urban Pedestrian
Path Networks [16.675093530600154]
歩道やサイクウェイを含む完全な交通網を推定することは、多くの自動化システムにとって不可欠である。
この研究は、都市における歩道、横断歩道、角球の衛星画像、地図画像、アノテーションの新たなデータセットを導入することで、この問題に大規模に対処し始めている。
本稿では,道路ネットワーク情報と提案したデータセットを用いて,接続された歩行者経路網マップを推定するエンド・ツー・エンドのプロセスを提案する。
論文 参考訳(メタデータ) (2023-03-04T05:08:36Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - SPIN Road Mapper: Extracting Roads from Aerial Images via Spatial and
Interaction Space Graph Reasoning for Autonomous Driving [64.10636296274168]
道路抽出は、自律航法システムを構築するための重要なステップである。
この問題に対して単に畳み込みニューラルネットワーク(ConvNets)を使用することは、画像内の道路セグメント間の遠い依存関係をキャプチャする非効率であるため、効果がない。
本研究では,ConvNetに接続した時,特徴写像から投影された空間空間および相互作用空間上に構築されたグラフの推論を行う空間空間グラフ推論(SPIN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-16T03:52:17Z) - End-to-End Deep Structured Models for Drawing Crosswalks [98.9901717499058]
我々は、両方の入力を地上に投影し、シーンのトップダウンビューを生成します。
次に,畳み込みニューラルネットワークを用いて横断歩道の位置に関する意味的手がかりを抽出する。
大都市での横断歩道実験では96.6%の自動化が可能であった。
論文 参考訳(メタデータ) (2020-12-21T18:59:08Z) - Graph-SIM: A Graph-based Spatiotemporal Interaction Modelling for
Pedestrian Action Prediction [10.580548257913843]
本稿では,歩行者の横断行動を予測するための新しいグラフベースモデルを提案する。
既存のnuScenesデータセットに対して、3Dバウンディングボックスと歩行者行動アノテーションを提供する新しいデータセットを紹介します。
提案手法は,既存の手法と比較して,様々な指標を15%以上改善し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-12-03T18:28:27Z) - Hidden Footprints: Learning Contextual Walkability from 3D Human Trails [70.01257397390361]
現在のデータセットは、人々がどこにいるか、どこにいるかを教えてくれません。
まず、画像間で人の観察を伝播させ、3D情報を利用して、私たちが「隠れ足跡」と呼ぶものを作成することで、有効なラベル付き歩行可能領域の集合を拡大する。
このようなスパースラベルのために設計されたトレーニング戦略を考案し、クラスバランスの分類損失と文脈逆転損失を組み合わせた。
論文 参考訳(メタデータ) (2020-08-19T23:19:08Z) - Footprints and Free Space from a Single Color Image [32.57664001590537]
入力として1つのRGB画像が与えられた場合、可視面と隠蔽面の両方の形状を予測するモデルを導入する。
ステレオビデオシーケンスから、カメラポーズ、フレームごとの深さ、セマンティックセグメンテーションを用いて学習し、トレーニングデータを形成する。
トレーニングシーンの空間的カバレッジには驚くほど低いバーが必要であることが分かりました。
論文 参考訳(メタデータ) (2020-04-14T09:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。