論文の概要: Self-Supervised Learning of Lidar Segmentation for Autonomous Indoor
Navigation
- arxiv url: http://arxiv.org/abs/2012.05897v1
- Date: Thu, 10 Dec 2020 18:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:08:11.858878
- Title: Self-Supervised Learning of Lidar Segmentation for Autonomous Indoor
Navigation
- Title(参考訳): 自律室内ナビゲーションのためのライダーセグメンテーションの自己教師付き学習
- Authors: Hugues Thomas, Ben Agro, Mona Gridseth, Jian Zhang and Timothy D.
Barfoot
- Abstract要約: 本稿では,ライダーフレームのセマンティックセグメンテーションのための自己監督型学習手法を提案する。
本手法は,人間のアノテーションを使わずに,ディープポイントクラウドセグメンテーションアーキテクチャをトレーニングするために用いられる。
ネットワーク予測に関する洞察を提供し、我々のアプローチが共通のローカライズ技術のパフォーマンスを向上できることを示します。
- 参考スコア(独自算出の注目度): 17.46116398744719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a self-supervised learning approach for the semantic segmentation
of lidar frames. Our method is used to train a deep point cloud segmentation
architecture without any human annotation. The annotation process is automated
with the combination of simultaneous localization and mapping (SLAM) and
ray-tracing algorithms. By performing multiple navigation sessions in the same
environment, we are able to identify permanent structures, such as walls, and
disentangle short-term and long-term movable objects, such as people and
tables, respectively. New sessions can then be performed using a network
trained to predict these semantic labels. We demonstrate the ability of our
approach to improve itself over time, from one session to the next. With
semantically filtered point clouds, our robot can navigate through more complex
scenarios, which, when added to the training pool, help to improve our network
predictions. We provide insights into our network predictions and show that our
approach can also improve the performances of common localization techniques.
- Abstract(参考訳): ライダーフレームのセマンティックセグメンテーションのための自己教師型学習手法を提案する。
本手法は,人間のアノテーションを使わずに,ディープポイントクラウドセグメンテーションアーキテクチャをトレーニングするために用いられる。
アノテーションプロセスは、同時ローカライゼーションとマッピング(SLAM)とレイトレーシングアルゴリズムを組み合わせて自動化される。
同じ環境で複数のナビゲーションセッションを行うことで,壁などの永続的な構造を識別し,人やテーブルなどの短期的・長期的な移動物体を分離することができる。
新しいセッションは、これらの意味ラベルを予測するためにトレーニングされたネットワークを使って実行することができる。
私たちは、あるセッションから次のセッションまで、時間とともに自分自身を改善するアプローチの能力を示しています。
意味的にフィルタリングされたポイントクラウドによって、ロボットはより複雑なシナリオをナビゲートし、トレーニングプールに追加すると、ネットワーク予測を改善するのに役立つ。
ネットワーク予測に対する洞察を提供し、我々のアプローチが共通のローカライズ手法の性能を向上させることを示す。
関連論文リスト
- Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - A Spatiotemporal Correspondence Approach to Unsupervised LiDAR
Segmentation with Traffic Applications [16.260518238832887]
鍵となる考え方は、動的ポイントクラウドシーケンスの性質を活用し、非常に強力なシナリオを導入することである。
我々は、グループへのセマンティクスの最適化と、ポイントワイトテンポラルラベルを用いたクラスタリングを交互に行う。
本手法は,教師なし学習方式で識別的特徴を学習することができる。
論文 参考訳(メタデータ) (2023-08-23T21:32:46Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Self-supervised Pre-training for Semantic Segmentation in an Indoor
Scene [8.357801312689622]
本稿ではセグメンテーションモデルの自己教師型事前学習手法であるRegConsistを提案する。
我々は,対象環境におけるRGBビューからのセマンティックセグメンテーションを予測するために,コントラスト学習の変種を用いてDCNNモデルを訓練する。
提案手法は、ImageNetで事前訓練されたモデルよりも優れており、全く同じタスクでトレーニングされたモデルと異なるデータセットでトレーニングされたモデルを使用する場合の競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-04T20:10:14Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Modelling Neighbor Relation in Joint Space-Time Graph for Video
Correspondence Learning [53.74240452117145]
本稿では、ラベルなしビデオから信頼できる視覚対応を学習するための自己教師付き手法を提案する。
接続時空間グラフでは,ノードがフレームからサンプリングされたグリッドパッチであり,2種類のエッジによってリンクされる。
学習した表現は、様々な視覚的タスクにおいて最先端の自己監督手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-28T05:40:01Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Self-supervised Object Tracking with Cycle-consistent Siamese Networks [55.040249900677225]
我々は、オブジェクト追跡のためのサイクル一貫性の自己監視フレームワークにおいて、エンドツーエンドのSiameseネットワークを利用する。
トラッキングフレームワークにシームズ領域の提案とマスク回帰ネットワークを統合することで,各フレームのアノテーションを使わずに,より高速で正確なトラッカーを学習できるようにすることを提案する。
論文 参考訳(メタデータ) (2020-08-03T04:10:38Z) - Learning Topometric Semantic Maps from Occupancy Grids [2.5234065536725963]
本稿では,このようなインスタンスベースのセマンティックマップを,占有グリッドから純粋に抽出する手法を提案する。
我々は、ランダムな大きさの地図からドア仮説を検出し、セグメンテーションし、抽出するために、深層学習技術を組み合わせている。
提案手法を,公開されている実世界の複数のデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-01-10T22:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。