論文の概要: Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning
- arxiv url: http://arxiv.org/abs/2103.03651v1
- Date: Fri, 5 Mar 2021 13:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:42:57.857234
- Title: Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning
- Title(参考訳): コントラスト学習によるきめ細かいオフロード意味セグメンテーションとマッピング
- Authors: Biao Gao, Shaochi Hu, Xijun Zhao, Huijing Zhao
- Abstract要約: 道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
オフロードロボットには、きめ細かいラベルを持つシーンを理解する必要がある。
本研究では,ロボットがオフロードを横断する有意義なシーン理解を実現するための,コントラスト学習に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 7.965964259208489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Road detection or traversability analysis has been a key technique for a
mobile robot to traverse complex off-road scenes. The problem has been mainly
formulated in early works as a binary classification one, e.g. associating
pixels with road or non-road labels. Whereas understanding scenes with
fine-grained labels are needed for off-road robots, as scenes are very diverse,
and the various mechanical performance of off-road robots may lead to different
definitions of safe regions to traverse. How to define and annotate
fine-grained labels to achieve meaningful scene understanding for a robot to
traverse off-road is still an open question. This research proposes a
contrastive learning based method. With a set of human-annotated anchor
patches, a feature representation is learned to discriminate regions with
different traversability, a method of fine-grained semantic segmentation and
mapping is subsequently developed for off-road scene understanding. Experiments
are conducted on a dataset of three driving segments that represent very
diverse off-road scenes. An anchor accuracy of 89.8% is achieved by evaluating
the matching with human-annotated image patches in cross-scene validation.
Examined by associated 3D LiDAR data, the fine-grained segments of visual
images are demonstrated to have different levels of toughness and terrain
elevation, which represents their semantical meaningfulness. The resultant maps
contain both fine-grained labels and confidence values, providing rich
information to support a robot traversing complex off-road scenes.
- Abstract(参考訳): 道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
この問題は、主に初期の研究でバイナリ分類として定式化されている。
ピクセルと道路や道路のラベルを関連付ける。
オフロードロボットには細かなラベルでシーンを理解する必要があるが、シーンは非常に多様であり、オフロードロボットの様々な機械的な性能によって、安全な領域の定義が異なる可能性がある。
きめ細かいラベルを定義して注釈を付けて、ロボットがオフロードを横断する意味のあるシーン理解を達成するには、まだ疑問の余地がある。
本研究では,対比学習に基づく手法を提案する。
人間の注釈付きアンカーパッチのセットでは、異なるトラバーサビリティを持つ領域を識別するために特徴表現を学び、細かい粒度のセマンティックセグメンテーションとマッピングの方法がその後オフロードシーンの理解のために開発されます。
実験は、非常に多様なオフロードシーンを表す3つの駆動セグメントのデータセットで行われます。
アンカー精度89.8%は、クロスシーンバリデーションにおける人間の注釈付き画像パッチとのマッチングを評価することによって達成される。
関連した3次元ライダーデータにより,視覚画像の細粒度セグメントは,その意味的意味性を表す強靭性と地形上昇のレベルが異なることが示されている。
結果として得られる地図はきめ細かいラベルと信頼値の両方を含んでおり、複雑なオフロードシーンを横断するロボットをサポートするための豊富な情報を提供する。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切
の責任を負いません。