論文の概要: Acquiring Grounded Representations of Words with Situated Interactive Instruction
- arxiv url: http://arxiv.org/abs/2502.20754v1
- Date: Fri, 28 Feb 2025 06:04:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:35.196929
- Title: Acquiring Grounded Representations of Words with Situated Interactive Instruction
- Title(参考訳): 対話型指示を用いた単語の接地表現獲得
- Authors: Shiwali Mohan, Aaron H. Mininger, James R. Kirk, John E. Laird,
- Abstract要約: 本稿では,人間インストラクターとの混合開始的,位置的相互作用から単語の接地表現を得る手法を提案する。
この研究は、知覚、意味、手続き的知識を含む多様な種類の知識の獲得と、基礎となる意味の学習に焦点を当てている。
- 参考スコア(独自算出の注目度): 4.049850026698638
- License:
- Abstract: We present an approach for acquiring grounded representations of words from mixed-initiative, situated interactions with a human instructor. The work focuses on the acquisition of diverse types of knowledge including perceptual, semantic, and procedural knowledge along with learning grounded meanings. Interactive learning allows the agent to control its learning by requesting instructions about unknown concepts, making learning efficient. Our approach has been instantiated in Soar and has been evaluated on a table-top robotic arm capable of manipulating small objects.
- Abstract(参考訳): 本稿では,人間インストラクターとの混合開始的,位置的相互作用から単語の接地表現を得る手法を提案する。
この研究は、知覚、意味、手続き的知識を含む多様な種類の知識の獲得と、基礎となる意味の学習に焦点を当てている。
対話型学習により、エージェントは未知の概念に関する指示を要求し、学習を効率的にすることで学習を制御することができる。
我々のアプローチはSoarでインスタンス化され、小さな物体を操作できるテーブルトップロボットアームで評価されてきた。
関連論文リスト
- Prosody as a Teaching Signal for Agent Learning: Exploratory Studies and Algorithmic Implications [2.8243597585456017]
本稿では,人間教師からのエージェント学習を強化するための教示信号として,韻律の統合を提唱する。
その結果,明示的なフィードバックと組み合わせることで,韻律的特徴が強化学習効果を高めることが示唆された。
論文 参考訳(メタデータ) (2024-10-31T01:51:23Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Bridging the Communication Gap: Artificial Agents Learning Sign Language through Imitation [6.1400257928108575]
本研究は,実証から学ぶことによる非言語コミュニケーションスキルの獲得について考察する。
特に,人工エージェントの模倣学習に着目し,擬似ヒューマノイドアメリカン手話を教えることで実演した。
我々はコンピュータビジョンと深層学習を用いてビデオから情報を取り出すとともに、エージェントが観察された動作を再現できるように強化学習を行う。
論文 参考訳(メタデータ) (2024-06-14T13:50:29Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - AnySkill: Learning Open-Vocabulary Physical Skill for Interactive Agents [58.807802111818994]
オープンな語彙の指示に従って物理的に妥当な相互作用を学習する新しい階層的手法であるAnySkillを提案する。
我々のアプローチは、模倣学習によって訓練された低レベルコントローラを介して、一連のアトミックアクションを開発することから始まります。
提案手法の重要な特徴は,手動の報酬工学を使わずにオブジェクトとのインタラクションを学習する,高レベルなポリシーに対する画像ベースの報酬の利用である。
論文 参考訳(メタデータ) (2024-03-19T15:41:39Z) - LiFT: Unsupervised Reinforcement Learning with Foundation Models as
Teachers [59.69716962256727]
本研究では,人間からのフィードバックを伴わずに意味論的に意味のある行動を取得するための強化学習エージェントを指導する枠組みを提案する。
本フレームワークでは,大規模言語モデルから学習環境に根ざしたタスク命令を受信する。
我々は,オープンエンドのMineDojo環境において,意味的に意味のあるスキルを学習できることを実証した。
論文 参考訳(メタデータ) (2023-12-14T14:07:41Z) - Solving Dialogue Grounding Embodied Task in a Simulated Environment
using Further Masked Language Modeling [0.0]
提案手法は,言語モデルを用いたSOTA(State-of-the-art)手法によるタスク理解を強化するために,言語モデリングを用いる。
実験の結果,提案手法が優れていることを示す証拠が得られた。
論文 参考訳(メタデータ) (2023-06-21T17:17:09Z) - From Interactive to Co-Constructive Task Learning [13.493719155524404]
インタラクティブなタスク学習に関する現在の提案をレビューし、その主な貢献について論じる。
次に、共同構築の概念について議論し、成人とロボットの相互作用からの研究知見を要約する。
論文 参考訳(メタデータ) (2023-05-24T19:45:30Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - Language-Conditioned Imitation Learning for Robot Manipulation Tasks [39.40937105264774]
本研究では,非構造化自然言語を模倣学習に組み込む手法を提案する。
訓練時には、専門家は、基礎となる意図を説明するために、言語記述とともにデモンストレーションを行うことができる。
トレーニングプロセスはこれらの2つのモードを相互に関連付け、言語、知覚、動きの相関を符号化する。
結果として得られた言語条件のvisuomotorポリシーは、実行時に新しいヒューマンコマンドと命令で条件付けできる。
論文 参考訳(メタデータ) (2020-10-22T21:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。