論文の概要: Good Time to Ask: A Learning Framework for Asking for Help in Embodied
Visual Navigation
- arxiv url: http://arxiv.org/abs/2206.10606v2
- Date: Mon, 22 May 2023 02:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 06:04:13.847593
- Title: Good Time to Ask: A Learning Framework for Asking for Help in Embodied
Visual Navigation
- Title(参考訳): good time to ask: 具体化されたビジュアルナビゲーションの助けを求める学習フレームワーク
- Authors: Jenny Zhang, Samson Yu, Jiafei Duan, Cheston Tan
- Abstract要約: 本稿では,このような視覚的ナビゲーションタスクにおいて,エージェントが積極的に支援を求めることができる学習フレームワークを提案する。
フィードバックが常に利用できるとは限らないトレーニングカリキュラムを提案する。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In reality, it is often more efficient to ask for help than to search the
entire space to find an object with an unknown location. We present a learning
framework that enables an agent to actively ask for help in such embodied
visual navigation tasks, where the feedback informs the agent of where the goal
is in its view. To emulate the real-world scenario that a teacher may not
always be present, we propose a training curriculum where feedback is not
always available. We formulate an uncertainty measure of where the goal is and
use empirical results to show that through this approach, the agent learns to
ask for help effectively while remaining robust when feedback is not available.
- Abstract(参考訳): 実際には、未知の場所にある物体を見つけるために空間全体を探索するよりも助けを求める方が効率的であることが多い。
本稿では,エージェントが視覚的ナビゲーションタスクに積極的に支援を求めることを可能にする学習フレームワークを提案する。
教師がいつもいるとは限らない現実のシナリオをエミュレートするために,フィードバックが常に利用できるとは限らない訓練カリキュラムを提案する。
我々は,目標がどこにあるのかの不確実性尺度を定式化し,経験的結果を用いて,フィードバックが得られない場合,エージェントが効果的に支援を求めることを学ぶ。
関連論文リスト
- Click-Feedback Retrieval [10.203235400791845]
本研究では,ユーザが好ましくない検索結果をクリックしてフィードバックを提供する環境について検討する。
我々は,ファッション領域における大規模データセットに基づいて,クリックフィードバック検索と呼ばれる新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-04-28T19:03:03Z) - KERM: Knowledge Enhanced Reasoning for Vision-and-Language Navigation [61.08389704326803]
VLN(Vision-and-Language Navigation)は、実シーンにおける自然言語命令に続く遠隔地への移動を可能にするタスクである。
以前のアプローチのほとんどは、ナビゲート可能な候補を表現するために、機能全体やオブジェクト中心の機能を利用している。
本稿では,知識を活用したエージェントナビゲーション能力向上のための知識強化推論モデル(KERM)を提案する。
論文 参考訳(メタデータ) (2023-03-28T08:00:46Z) - Robustness of Utilizing Feedback in Embodied Visual Navigation [1.3190581566723918]
本稿では,オブジェクトゴールナビゲーションタスクのヘルプを積極的に要求するエージェントを訓練するためのフレームワークを提案する。
提案するトレーニングカリキュラムには,フィードバックのないエピソードが混在している。
その結果,フィードバックがない場合でも,エージェントの性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-03-06T22:38:21Z) - When to Ask for Help: Proactive Interventions in Autonomous
Reinforcement Learning [57.53138994155612]
強化学習の長期的な目標は、世界で自律的に対話し学習できるエージェントを設計することである。
重要な課題は、ロボットアームが物体をテーブルから押し出したときなど、外部からの援助を必要とする不可逆状態の存在である。
本研究では,非可逆状態の検出と回避を効率よく学習し,エージェントが侵入した場合に積極的に支援を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-19T17:57:24Z) - AVLEN: Audio-Visual-Language Embodied Navigation in 3D Environments [60.98664330268192]
AVLEN(Audio-Visual-Language Embodied Navigationの対話型エージェント)を提案する。
AVLENの目標は、3Dビジュアルワールドをナビゲートすることでオーディオイベントをローカライズすることである。
これらの能力を実現するために、AVLENはマルチモーダル階層的な強化学習バックボーンを使用する。
論文 参考訳(メタデータ) (2022-10-14T16:35:06Z) - Enhancing a Student Productivity Model for Adaptive Problem-Solving
Assistance [7.253181280137071]
本稿では,学生が支援の必要性を予測するためにヒントを取り入れた新しいデータ駆動型アプローチを提案する。
このような政策が学生のトレーニング時間を大幅に節約できることを示す実証的証拠を示す。
このアプローチの恩恵を受けることができるドメインと、採用の要件についての提案を締めくくります。
論文 参考訳(メタデータ) (2022-07-07T00:41:00Z) - Embodied Learning for Lifelong Visual Perception [33.02424587900808]
我々は、新しいモデルを開発し、建物内を航行する様々なエージェントを比較し、生涯の視覚知覚を具体化して研究する。
エージェントの目的は、探索とアクティブな視覚学習を組み合わせたプロセスの最後に、建物全体のオブジェクトやその他のセマンティッククラスを認識することである。
論文 参考訳(メタデータ) (2021-12-28T10:47:13Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Learning When and What to Ask: a Hierarchical Reinforcement Learning
Framework [17.017688226277834]
我々は、人間から追加情報を要求するタイミングを決定するための階層的な強化学習フレームワークを定式化した。
シミュレーションによるナビゲーション問題の結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2021-10-14T01:30:36Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。