論文の概要: STERLING: Self-Supervised Terrain Representation Learning from
Unconstrained Robot Experience
- arxiv url: http://arxiv.org/abs/2309.15302v2
- Date: Fri, 20 Oct 2023 15:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 02:51:54.848464
- Title: STERLING: Self-Supervised Terrain Representation Learning from
Unconstrained Robot Experience
- Title(参考訳): sterling: 制約のないロボット体験からの自己教師あり地形表現学習
- Authors: Haresh Karnan, Elvin Yang, Daniel Farkash, Garrett Warnell, Joydeep
Biswas, Peter Stone
- Abstract要約: 自己教師型テレイン表現学習(STERling)について紹介する。
STERlingは、地形表現を学習するための新しいアプローチであり、簡単に編集できる、制約のない(例えば、非専門家)、非ラベルのロボット体験にのみ依存する。
我々は、優先的な視覚ナビゲーションのタスクにおけるSTERling機能を評価し、STERling機能が完全に教師付きされたアプローチと同等に機能することを見出した。
- 参考スコア(独自算出の注目度): 43.49602846732077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Terrain awareness, i.e., the ability to identify and distinguish different
types of terrain, is a critical ability that robots must have to succeed at
autonomous off-road navigation. Current approaches that provide robots with
this awareness either rely on labeled data which is expensive to collect,
engineered features and cost functions that may not generalize, or expert human
demonstrations which may not be available. Towards endowing robots with terrain
awareness without these limitations, we introduce Self-supervised TErrain
Representation LearnING (STERLING), a novel approach for learning terrain
representations that relies solely on easy-to-collect, unconstrained (e.g.,
non-expert), and unlabelled robot experience, with no additional constraints on
data collection. STERLING employs a novel multi-modal self-supervision
objective through non-contrastive representation learning to learn relevant
terrain representations for terrain-aware navigation. Through physical robot
experiments in off-road environments, we evaluate STERLING features on the task
of preference-aligned visual navigation and find that STERLING features perform
on par with fully supervised approaches and outperform other state-of-the-art
methods with respect to preference alignment. Additionally, we perform a
large-scale experiment of autonomously hiking a 3-mile long trail which
STERLING completes successfully with only two manual interventions,
demonstrating its robustness to real-world off-road conditions.
- Abstract(参考訳): 地形認識、すなわち、異なる種類の地形を識別し識別する能力は、ロボットが自律的なオフロードナビゲーションで成功しなければならない重要な能力である。
この認識をロボットに提供する現在のアプローチは、収集に費用がかかるラベル付きデータ、一般化しないかもしれない機能やコスト関数、あるいは利用できないかもしれない人間のデモンストレーションに頼っている。
このような制約を伴わない地形認識型ロボットの実現に向けて,データ収集に制約を加えることなく,自由度・非拘束性・非拘束性にのみ依存する地形表現学習のための新たなアプローチである,自己教師型テレイン表現学習(STERling)を導入する。
STERlingは、地形認識ナビゲーションのための関連する地形表現を学習するために、非コントラスト表現学習を通じて、新しいマルチモーダルな自己超越目標を採用する。
オフロード環境における物理的ロボット実験を通じて,嗜好調整型視覚ナビゲーションの課題におけるスターリング特性を評価し,スターリング機能は完全な教師付きアプローチと同等の性能を持ち,嗜好調整に関して他の最先端手法を上回ることを見出した。
さらに,3マイルのトレイルを自律的にハイキングする大規模な実験を行い,STERlingは2つの手動介入で完遂し,現実世界のオフロード条件に対するロバスト性を実証した。
関連論文リスト
- Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - Semi-Supervised Active Learning for Semantic Segmentation in Unknown
Environments Using Informative Path Planning [27.460481202195012]
ロボットの視力を改善するために、自己監督的で完全に教師された能動学習手法が出現した。
セマンティックセグメンテーションの半教師付き能動学習のための計画法を提案する。
我々は、モデル不確実性の高い未探索空間のフロンティアに向けて導かれた適応地図ベースのプランナーを活用する。
論文 参考訳(メタデータ) (2023-12-07T16:16:47Z) - Fast Traversability Estimation for Wild Visual Navigation [17.015268056925745]
トラバーサビリティ推定のためのオンライン自己教師型学習システムであるWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
森林・公園・草地における挑戦的環境における実験・アブレーション研究によるアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-05-15T10:19:30Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - Self-Reflective Terrain-Aware Robot Adaptation for Consistent Off-Road
Ground Navigation [9.526796188292968]
地上ロボットは、災害応答のような現実世界のロボットアプリケーションでタスクを完了するために、非構造的および未準備の地形を横断する重要な能力を必要とする。
本研究では,非構造なオフロード地形を走行するための一貫した制御を生成するために,地上ロボットの自己反射型地形認識適応法を提案する。
論文 参考訳(メタデータ) (2021-11-12T14:32:22Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。