論文の概要: Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning
- arxiv url: http://arxiv.org/abs/2103.03651v1
- Date: Fri, 5 Mar 2021 13:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:42:57.857234
- Title: Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning
- Title(参考訳): コントラスト学習によるきめ細かいオフロード意味セグメンテーションとマッピング
- Authors: Biao Gao, Shaochi Hu, Xijun Zhao, Huijing Zhao
- Abstract要約: 道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
オフロードロボットには、きめ細かいラベルを持つシーンを理解する必要がある。
本研究では,ロボットがオフロードを横断する有意義なシーン理解を実現するための,コントラスト学習に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 7.965964259208489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Road detection or traversability analysis has been a key technique for a
mobile robot to traverse complex off-road scenes. The problem has been mainly
formulated in early works as a binary classification one, e.g. associating
pixels with road or non-road labels. Whereas understanding scenes with
fine-grained labels are needed for off-road robots, as scenes are very diverse,
and the various mechanical performance of off-road robots may lead to different
definitions of safe regions to traverse. How to define and annotate
fine-grained labels to achieve meaningful scene understanding for a robot to
traverse off-road is still an open question. This research proposes a
contrastive learning based method. With a set of human-annotated anchor
patches, a feature representation is learned to discriminate regions with
different traversability, a method of fine-grained semantic segmentation and
mapping is subsequently developed for off-road scene understanding. Experiments
are conducted on a dataset of three driving segments that represent very
diverse off-road scenes. An anchor accuracy of 89.8% is achieved by evaluating
the matching with human-annotated image patches in cross-scene validation.
Examined by associated 3D LiDAR data, the fine-grained segments of visual
images are demonstrated to have different levels of toughness and terrain
elevation, which represents their semantical meaningfulness. The resultant maps
contain both fine-grained labels and confidence values, providing rich
information to support a robot traversing complex off-road scenes.
- Abstract(参考訳): 道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
この問題は、主に初期の研究でバイナリ分類として定式化されている。
ピクセルと道路や道路のラベルを関連付ける。
オフロードロボットには細かなラベルでシーンを理解する必要があるが、シーンは非常に多様であり、オフロードロボットの様々な機械的な性能によって、安全な領域の定義が異なる可能性がある。
きめ細かいラベルを定義して注釈を付けて、ロボットがオフロードを横断する意味のあるシーン理解を達成するには、まだ疑問の余地がある。
本研究では,対比学習に基づく手法を提案する。
人間の注釈付きアンカーパッチのセットでは、異なるトラバーサビリティを持つ領域を識別するために特徴表現を学び、細かい粒度のセマンティックセグメンテーションとマッピングの方法がその後オフロードシーンの理解のために開発されます。
実験は、非常に多様なオフロードシーンを表す3つの駆動セグメントのデータセットで行われます。
アンカー精度89.8%は、クロスシーンバリデーションにおける人間の注釈付き画像パッチとのマッチングを評価することによって達成される。
関連した3次元ライダーデータにより,視覚画像の細粒度セグメントは,その意味的意味性を表す強靭性と地形上昇のレベルが異なることが示されている。
結果として得られる地図はきめ細かいラベルと信頼値の両方を含んでおり、複雑なオフロードシーンを横断するロボットをサポートするための豊富な情報を提供する。
関連論文リスト
- Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Graph-based Topology Reasoning for Driving Scenes [102.35885039110057]
TopoNetは、従来の知覚タスクを超えてトラフィック知識を抽象化できる最初のエンドツーエンドフレームワークである。
TopoNetを,難解なシーン理解ベンチマークOpenLane-V2で評価した。
論文 参考訳(メタデータ) (2023-04-11T15:23:29Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - An Active and Contrastive Learning Framework for Fine-Grained Off-Road
Semantic Segmentation [7.035838394813961]
自動運転車が運転シーンを理解するためには、詳細なラベル付きオフロードセマンティックセマンティックセマンティックセマンティクスが必要である。
オフロードシーンにおける微粒なセマンティックセグメンテーションは通常、あいまいな自然環境のために統一されたカテゴリ定義を持たない。
本研究では,画素単位のラベルに依存しない能動的かつ対照的な学習手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T03:16:31Z) - Navigation-Oriented Scene Understanding for Robotic Autonomy: Learning
to Segment Driveability in Egocentric Images [25.350677396144075]
この研究は、屋外ロボットナビゲーションのシーン理解に取り組み、オンボードカメラで撮影された画像にのみ依存する。
我々は、ロボットがどのようにナビゲートするかという点で、自我中心の画像を直接分類し、学習問題を自律的なナビゲーションタスクに合わせる。
任意のシーンに適用可能な3つの駆動性レベルからなる汎用的かつスケーラブルなアベイランスベースの定義を提案する。
論文 参考訳(メタデータ) (2021-09-15T12:25:56Z) - OFFSEG: A Semantic Segmentation Framework For Off-Road Driving [6.845371503461449]
OFFSEGと呼ばれるオフロードセマンティックセグメンテーションのためのフレームワークを提案する。
オフロードセマンティクスセグメンテーションは、不均一な地形、非構造なクラス境界、不規則な特徴、強いテクスチャが存在するため、困難である。
論文 参考訳(メタデータ) (2021-03-23T09:45:41Z) - An Image-based Approach of Task-driven Driving Scene Categorization [7.291979964739049]
本稿では,弱監督データを用いたタスク駆動運転場面分類手法を提案する。
異なるセマンティック属性のシーンを対比学習によって識別する尺度を学習する。
セマンティックシーン類似性学習とドライビングシーン分類の結果を広範囲に研究した。
論文 参考訳(メタデータ) (2021-03-10T08:23:36Z) - Scribble-based Weakly Supervised Deep Learning for Road Surface
Extraction from Remote Sensing Images [7.1577508803778045]
そこで我々は,ScRoadExtractor という,スクリブルに基づく弱制御路面抽出手法を提案する。
スパーススクリブルからラベルなし画素への意味情報を伝達するために,道路ラベルの伝搬アルゴリズムを導入する。
道路ラベル伝搬アルゴリズムから生成された提案マスクを用いて、デュアルブランチエンコーダデコーダネットワークを訓練する。
論文 参考訳(メタデータ) (2020-10-25T12:40:30Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。