論文の概要: Feasibility-aware Imitation Learning from Observation with Multimodal Feedback
- arxiv url: http://arxiv.org/abs/2602.15351v1
- Date: Tue, 17 Feb 2026 04:34:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.502631
- Title: Feasibility-aware Imitation Learning from Observation with Multimodal Feedback
- Title(参考訳): マルチモーダルフィードバックを用いた観測から実現可能性を考慮した模倣学習
- Authors: Kei Takahashi, Hikaru Sasaki, Takamitsu Matsubara,
- Abstract要約: FABCO(Feasibility-Aware Behavior Cloning from Observation)を提案する。
FABCOは、ロボット力学モデルを用いたロボット動作を補完する観察からの行動クローニングと、実現可能性の推定を統合する。
2つの課題について15人の被験者を対象に実験を行い、FABCOが3.2倍以上の模倣学習性能を向上させることを確認した。
- 参考スコア(独自算出の注目度): 4.374284509621931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning frameworks that learn robot control policies from demonstrators' motions via hand-mounted demonstration interfaces have attracted increasing attention. However, due to differences in physical characteristics between demonstrators and robots, this approach faces two limitations: i) the demonstration data do not include robot actions, and ii) the demonstrated motions may be infeasible for robots. These limitations make policy learning difficult. To address them, we propose Feasibility-Aware Behavior Cloning from Observation (FABCO). FABCO integrates behavior cloning from observation, which complements robot actions using robot dynamics models, with feasibility estimation. In feasibility estimation, the demonstrated motions are evaluated using a robot-dynamics model, learned from the robot's execution data, to assess reproducibility under the robot's dynamics. The estimated feasibility is used for multimodal feedback and feasibility-aware policy learning to improve the demonstrator's motions and learn robust policies. Multimodal feedback provides feasibility through the demonstrator's visual and haptic senses to promote feasible demonstrated motions. Feasibility-aware policy learning reduces the influence of demonstrated motions that are infeasible for robots, enabling the learning of policies that robots can execute stably. We conducted experiments with 15 participants on two tasks and confirmed that FABCO improves imitation learning performance by more than 3.2 times compared to the case without feasibility feedback.
- Abstract(参考訳): 手持ちデモインタフェースを介してデモ参加者の動きからロボット制御ポリシーを学習する模倣学習フレームワークが注目されている。
しかし、デモ隊とロボットの身体的特徴の違いにより、このアプローチは2つの制限に直面している。
一 デモデータは、ロボットの動作を含まないもので、
二 ロボットの動作が実証できないこと。
これらの制限は、政策学習を難しくする。
そこで我々はFABCO(Feasibility-Aware Behavior Cloning from Observation)を提案する。
FABCOは、ロボット力学モデルを用いたロボット動作を補完する観察からの行動クローニングと、実現可能性の推定を統合する。
実現可能性推定では、ロボットの実行データから学習したロボット力学モデルを用いて実演動作を評価し、ロボットのダイナミクスの下で再現性を評価する。
推定実現可能性は、マルチモーダルフィードバックとフィージビリティ対応ポリシー学習に使われ、実証者の動作を改善し、ロバストなポリシーを学ぶ。
マルチモーダルフィードバックは、実証者の視覚的および触覚的感覚を通じて実現可能性を提供し、実証可能な動作を促進する。
フェーザビリティを意識したポリシー学習は、ロボットにとって不可能なデモ動作の影響を低減し、ロボットが安定して実行できるポリシーの学習を可能にする。
2つの課題について15名の被験者を対象に実験を行い,FABCOが再現学習性能を3.2倍以上改善することを確認した。
関連論文リスト
- Empathetic Motion Generation for Humanoid Educational Robots via Reasoning-Guided Vision--Language--Motion Diffusion Architecture [4.77320559246954]
本稿では,ヒューマノイドロボットの学習シナリオにおける指示認識協調音声ジェスチャを生成するための推論誘導型視覚言語移動拡散フレームワーク(RG-VLMD)を提案する。
本システムは,適応的かつ意味論的に整合したロボット動作を実現するために,マルチモーダルな感情推定,教育的推論,教示的条件付き動作合成を統合する。
論文 参考訳(メタデータ) (2026-03-19T11:26:04Z) - Mechanistic Finetuning of Vision-Language-Action Models via Few-Shot Demonstrations [76.79742393097358]
Vision-Language Action (VLA)モデルは、視覚言語モデル(VLM)をロボット工学に拡張することを約束している。
既存の微調整手法には特異性がなく、タスクの視覚的、言語的、物理的特性に関わらず、同じパラメータセットを適用する。
神経科学における機能的特異性に触発されて、与えられたタスクに特有のスパースモデル表現を微調整することがより効果的である、という仮説を立てる。
論文 参考訳(メタデータ) (2025-11-27T18:50:21Z) - Feasibility-aware Imitation Learning from Observations through a Hand-mounted Demonstration Interface [10.808201018448274]
FABCO(Fasibility-Aware Behavior Cloning from Observation)を提案する。
FABCOフレームワークでは、ロボットの事前訓練された前方および逆ダイナミクスモデルを用いて、各デモンストレーションの実現可能性を評価する。
我々はFABCOの有効性を,パイプとバイエルを含むピペット挿入作業に適用して実験的に検証した。
論文 参考訳(メタデータ) (2025-03-12T03:14:04Z) - Reciprocal Learning of Intent Inferral with Augmented Visual Feedback for Stroke [2.303526979876375]
本稿では,意図的推論型分類器への人間の適応を容易にする双方向パラダイムを提案する。
我々はこのパラダイムを、脳卒中のためのロボットハンドの整形制御の文脈で実証する。
脳卒中患者を対象に行った実験では,他者に対するパフォーマンスに悪影響を及ぼすことなく,サブセットでの相互学習によるパフォーマンス向上が見られた。
論文 参考訳(メタデータ) (2024-12-10T22:49:36Z) - Moto: Latent Motion Token as the Bridging Language for Learning Robot Manipulation from Videos [101.26467307473638]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - Dynamic Non-Prehensile Object Transport via Model-Predictive Reinforcement Learning [24.079032278280447]
バッチ強化学習(RL)とモデル予測制御(MPC)を組み合わせたアプローチを提案する。
提案手法は,ロボットウェイタータスクを実行するFranka Pandaロボットのシミュレーションおよび実世界実験により検証される。
論文 参考訳(メタデータ) (2024-11-27T03:33:42Z) - DiffGen: Robot Demonstration Generation via Differentiable Physics Simulation, Differentiable Rendering, and Vision-Language Model [72.66465487508556]
DiffGenは、微分可能な物理シミュレーション、微分可能なレンダリング、ビジョン言語モデルを統合する新しいフレームワークである。
言語命令の埋め込みとシミュレートされた観察の埋め込みとの距離を最小化することにより、現実的なロボットデモを生成することができる。
実験によると、DiffGenを使えば、人間の努力やトレーニング時間を最小限に抑えて、ロボットデータを効率よく、効果的に生成できる。
論文 参考訳(メタデータ) (2024-05-12T15:38:17Z) - Unsupervised Learning of Effective Actions in Robotics [0.9374652839580183]
ロボット工学における現在の最先端のアクション表現は、ロボットのアクションに対する適切な効果駆動学習を欠いている。
連続運動空間の離散化と「アクションプロトタイプ」生成のための教師なしアルゴリズムを提案する。
シミュレーションされた階段登上補強学習課題について,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-03T13:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。