論文の概要: Enhancing Goal Inference via Correction Timing
- arxiv url: http://arxiv.org/abs/2602.18603v1
- Date: Fri, 20 Feb 2026 20:38:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.1878
- Title: Enhancing Goal Inference via Correction Timing
- Title(参考訳): 補正タイミングによるゴール推論の強化
- Authors: Anjiabei Wang, Shuangge Wang, Tesca Fitzgerald,
- Abstract要約: 補正は、ロボットにフィードバックを提供するための自然なモダリティを提供する。
修正から学ぶための先行研究のほとんどは、修正を新しい実証として解釈することである。
この決定のタイミングがタスク関連の影響を推測するのに有用な信号となるかどうかを検討する。
- 参考スコア(独自算出の注目度): 2.444217495283211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Corrections offer a natural modality for people to provide feedback to a robot, by (i) intervening in the robot's behavior when they believe the robot is failing (or will fail) the task objectives and (ii) modifying the robot's behavior to successfully fulfill the task. Each correction offers information on what the robot should and should not do, where the corrected behavior is more aligned with task objectives than the original behavior. Most prior work on learning from corrections involves interpreting a correction as a new demonstration (consisting of the modified robot behavior), or a preference (for the modified trajectory compared to the robot's original behavior). However, this overlooks one essential element of the correction feedback, which is the human's decision to intervene in the robot's behavior in the first place. This decision can be influenced by multiple factors including the robot's task progress, alignment with human expectations, dynamics, motion legibility, and optimality. In this work, we investigate whether the timing of this decision can offer a useful signal for inferring these task-relevant influences. In particular, we investigate three potential applications for this learning signal: (1) identifying features of a robot's motion that may prompt people to correct it, (2) quickly inferring the final goal of a human's correction based on the timing and initial direction of their correction motion, and (3) learning more precise constraints for task objectives. Our results indicate that correction timing results in improved learning for the first two of these applications. Overall, our work provides new insights on the value of correction timing as a signal for robot learning.
- Abstract(参考訳): 補正は、人間がロボットにフィードバックを提供するための自然なモダリティを提供する
一 ロボットが課題目標に失敗(又は失敗)していると信じるときのロボットの行動に介入すること。
二 ロボットの動作を変更して、そのタスクを成功させる。
それぞれの修正は、ロボットがすべきことやすべきでないことに関する情報を提供する。
修正から学ぶことに関する以前の研究は、修正を(修正されたロボットの振る舞いを含む)新しいデモンストレーションとして解釈すること、または(ロボットの本来の振る舞いと比較して)好みとして解釈することであった。
しかし,これは,まずロボットの動作に介入するという人間の決断である,補正フィードバックの重要な要素の1つを見落としている。
この決定は、ロボットのタスク進捗、人間の期待との整合性、ダイナミクス、動作の可視性、最適性など、複数の要因に影響される。
本研究では,この決定のタイミングが,これらの課題関連の影響を推測するのに有用な信号となるかどうかを検討する。
特に,この学習信号の潜在的な応用として,(1)人間に修正を促すロボットの動きの特徴を特定すること,(2)修正動作のタイミングと初期方向に基づいて人間の補正の最終目標を素早く推測すること,(3)タスク目標に対するより正確な制約を学習すること,の3つについて検討する。
以上の結果から,これらの2つのアプリケーションにおいて,修正タイミングが学習を改善することが示唆された。
本研究は,ロボット学習のための信号として,補正タイミングの価値に関する新たな知見を提供する。
関連論文リスト
- Action Flow Matching for Continual Robot Learning [54.10050120844738]
ロボット工学における継続的な学習は、変化する環境やタスクに常に適応できるシステムを求める。
本稿では,オンラインロボット力学モデルアライメントのためのフローマッチングを利用した生成フレームワークを提案する。
ロボットは,不整合モデルで探索するのではなく,行動自体を変換することで,より効率的に情報収集を行う。
論文 参考訳(メタデータ) (2025-04-25T16:26:15Z) - A Survey of Embodied Learning for Object-Centric Robotic Manipulation [27.569063968870868]
オブジェクト中心のロボット操作のための身体学習は、AIの急速に発展し、挑戦的な分野である。
データ駆動機械学習とは異なり、具体化学習は環境との物理的相互作用を通じてロボット学習に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-21T11:32:09Z) - Unsupervised Learning of Effective Actions in Robotics [0.9374652839580183]
ロボット工学における現在の最先端のアクション表現は、ロボットのアクションに対する適切な効果駆動学習を欠いている。
連続運動空間の離散化と「アクションプロトタイプ」生成のための教師なしアルゴリズムを提案する。
シミュレーションされた階段登上補強学習課題について,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-03T13:28:52Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Correcting Robot Plans with Natural Language Feedback [88.92824527743105]
ロボットの修正のための表現的かつ柔軟なツールとして自然言語を探索する。
これらの変換により、ユーザは目標を正し、ロボットの動きを更新し、計画上のエラーから回復できる。
本手法により,シミュレーション環境や実環境において,複数の制約を合成し,未知のシーン,オブジェクト,文に一般化することが可能となる。
論文 参考訳(メタデータ) (2022-04-11T15:22:43Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Learning from Incremental Directional Corrections [9.45570271906093]
本研究では,ロボットが人間の修正から制御対象関数を漸進的に学習することを可能にする手法を提案する。
人間の補正は、その大きさに関わらず、ロボットの現在の動きを改善する方向を指していると仮定する。
提案手法は, 修正方向を用いて, 切削面法に基づく目的関数の推定値の更新を行う。
論文 参考訳(メタデータ) (2020-11-30T17:16:39Z) - Quantifying Hypothesis Space Misspecification in Learning from
Human-Robot Demonstrations and Physical Corrections [34.53709602861176]
最近の研究は、ロボットがそのようなインプットを使って意図した目的を学習する方法に焦点を当てている。
本研究では,2種類の人間入力から学習する7自由度ロボットマニピュレータについて実験を行った。
論文 参考訳(メタデータ) (2020-02-03T18:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。