論文の概要: Enhancing Robot Learning through Learned Human-Attention Feature Maps
- arxiv url: http://arxiv.org/abs/2308.15327v1
- Date: Tue, 29 Aug 2023 14:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 13:56:31.747987
- Title: Enhancing Robot Learning through Learned Human-Attention Feature Maps
- Title(参考訳): 学習型人間接触特徴マップによるロボット学習の強化
- Authors: Daniel Scheuchenstuhl, Stefan Ulmer, Felix Resch, Luigi Berducci, Radu
Grosu
- Abstract要約: ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
- 参考スコア(独自算出の注目度): 6.724036710994883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust and efficient learning remains a challenging problem in robotics, in
particular with complex visual inputs. Inspired by human attention mechanism,
with which we quickly process complex visual scenes and react to changes in the
environment, we think that embedding auxiliary information about focus point
into robot learning would enhance efficiency and robustness of the learning
process. In this paper, we propose a novel approach to model and emulate the
human attention with an approximate prediction model. We then leverage this
output and feed it as a structured auxiliary feature map into downstream
learning tasks. We validate this idea by learning a prediction model from
human-gaze recordings of manual driving in the real world. We test our approach
on two learning tasks - object detection and imitation learning. Our
experiments demonstrate that the inclusion of predicted human attention leads
to improved robustness of the trained models to out-of-distribution samples and
faster learning in low-data regime settings. Our work highlights the potential
of incorporating structured auxiliary information in representation learning
for robotics and opens up new avenues for research in this direction. All code
and data are available online.
- Abstract(参考訳): ロボット工学、特に複雑な視覚入力において、ロバストで効率的な学習は難しい問題である。
複雑な視覚シーンを迅速に処理し、環境の変化に反応する人間の注意機構にヒントを得て、ロボット学習に焦点に関する補助的な情報を埋め込むことで、学習プロセスの効率性と堅牢性を高めることができると考えている。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
次に、この出力を活用して、下流学習タスクに構造化された補助機能マップとして提供します。
実世界における手動運転の人注記録から予測モデルを学習し,この考え方を検証する。
物体検出と模倣学習という2つの学習課題にアプローチを試行する。
実験の結果,予測された人間の注意が組み込まれれば,トレーニングされたモデルの分散サンプルへの堅牢性が向上し,低データレジーム環境での学習が速くなることが示された。
本研究は,ロボットの表現学習に構造化補助情報を組み込む可能性を強調し,研究の新たな道を開く。
すべてのコードとデータはオンラインで入手できる。
関連論文リスト
- A Survey of Embodied Learning for Object-Centric Robotic Manipulation [27.569063968870868]
オブジェクト中心のロボット操作のための身体学習は、AIの急速に発展し、挑戦的な分野である。
データ駆動機械学習とは異なり、具体化学習は環境との物理的相互作用を通じてロボット学習に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-21T11:32:09Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Exploring Visual Pre-training for Robot Manipulation: Datasets, Models
and Methods [14.780597545674157]
本稿では,3つの基本的視点から,視覚的事前学習がロボット操作作業に及ぼす影響について検討する。
自己教師型学習と教師型学習を組み合わせた視覚的事前学習方式Vi-PRoMを提案する。
論文 参考訳(メタデータ) (2023-08-07T14:24:52Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Unsupervised Online Learning for Robotic Interestingness with Visual
Memory [9.189959184116962]
そこで本研究では,オンライン環境に自動的に適応して,興味深いシーンを素早く報告する手法を開発した。
地下トンネル環境における最先端の非監視手法よりも平均20%高い精度を実現する。
論文 参考訳(メタデータ) (2021-11-18T16:51:39Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。