論文の概要: Unsupervised Online Learning for Robotic Interestingness with Visual
Memory
- arxiv url: http://arxiv.org/abs/2111.09793v2
- Date: Fri, 19 Nov 2021 05:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 13:14:39.593225
- Title: Unsupervised Online Learning for Robotic Interestingness with Visual
Memory
- Title(参考訳): 視覚記憶を用いた非教師なしオンライン学習
- Authors: Chen Wang, Yuheng Qiu, Wenshan Wang, Yafei Hu, Seungchan Kim,
Sebastian Scherer
- Abstract要約: そこで本研究では,オンライン環境に自動的に適応して,興味深いシーンを素早く報告する手法を開発した。
地下トンネル環境における最先端の非監視手法よりも平均20%高い精度を実現する。
- 参考スコア(独自算出の注目度): 9.189959184116962
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Autonomous robots frequently need to detect "interesting" scenes to decide on
further exploration, or to decide which data to share for cooperation. These
scenarios often require fast deployment with little or no training data. Prior
work considers "interestingness" based on data from the same distribution.
Instead, we propose to develop a method that automatically adapts online to the
environment to report interesting scenes quickly. To address this problem, we
develop a novel translation-invariant visual memory and design a three-stage
architecture for long-term, short-term, and online learning, which enables the
system to learn human-like experience, environmental knowledge, and online
adaption, respectively. With this system, we achieve an average of 20% higher
accuracy than the state-of-the-art unsupervised methods in a subterranean
tunnel environment. We show comparable performance to supervised methods for
robot exploration scenarios showing the efficacy of our approach. We expect
that the presented method will play an important role in the robotic
interestingness recognition exploration tasks.
- Abstract(参考訳): 自律ロボットは、さらなる探索を決定するために「興味深い」シーンを検出したり、協力のために共有するデータを決定する必要がある。
これらのシナリオは、ほとんど、あるいはまったくトレーニングデータを持たない高速なデプロイメントを必要とすることが多い。
先行研究では、同じ分布のデータに基づいて「興味」を考える。
代わりに,オンライン環境に自動的に適応して興味ある場面を素早く報告する手法を開発することを提案する。
この問題に対処するため,我々は,新しい翻訳不変ビジュアルメモリを開発し,長期・短期・オンライン学習のための3段階アーキテクチャを設計した。
このシステムにより,地下トンネル環境における最先端の非監視手法よりも平均20%高い精度が得られる。
提案手法の有効性を示すロボット探索シナリオにおける教師付き手法と同等の性能を示す。
提案手法は,ロボットの興味をそそる探索作業において重要な役割を果たすことを期待する。
関連論文リスト
- KOI: Accelerating Online Imitation Learning via Hybrid Key-state Guidance [51.09834120088799]
キーステートガイド付きオンライン模倣(KOI)学習手法について紹介する。
我々は視覚言語モデルを用いて、専門家の軌跡から意味的キー状態を抽出し、「何をすべきか」の目的を示す。
セマンティックキー状態間の間隔内では、動作キー状態の捕捉に光流が使用され、「どうするか」のメカニズムが理解される。
論文 参考訳(メタデータ) (2024-08-06T02:53:55Z) - Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Robot in a China Shop: Using Reinforcement Learning for
Location-Specific Navigation Behaviour [24.447207633447363]
本稿では,マルチタスク学習問題として扱われるナビゲーションに対する新しいアプローチを提案する。
これによりロボットは、異なる環境における視覚的なナビゲーションタスクにおいて、異なる振る舞いを学ぶことができる。
論文 参考訳(メタデータ) (2021-06-02T19:31:27Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments [28.530962677406627]
2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
このリリースには、他の論文で記述されたトレーニング条件をエミュレートするように設計されたopenai-gym互換環境も含まれている。
論文 参考訳(メタデータ) (2020-12-08T12:51:14Z) - Visual Memorability for Robotic Interestingness via Unsupervised Online
Learning [8.747798544090314]
興味あるシーンをリコールし、識別するための、新しい翻訳不変な視覚記憶を提案する。
これにより、人間的な経験、環境知識、オンライン適応を学習することができる。
提案手法は,ロボットの興味深いデータセットに挑戦する最先端アルゴリズムよりもはるかに精度が高い。
論文 参考訳(メタデータ) (2020-05-18T16:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。