論文の概要: Diff-Transfer: Model-based Robotic Manipulation Skill Transfer via
Differentiable Physics Simulation
- arxiv url: http://arxiv.org/abs/2310.04930v2
- Date: Tue, 10 Oct 2023 01:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 14:14:46.781206
- Title: Diff-Transfer: Model-based Robotic Manipulation Skill Transfer via
Differentiable Physics Simulation
- Title(参考訳): Diff-Transfer:微分物理シミュレーションによるモデルに基づくロボットマニピュレーションスキルの伝達
- Authors: Yuqi Xiang, Feitong Chen, Qinsi Wang, Yang Gang, Xiang Zhang, Xinghao
Zhu, Xingyu Liu, Lin Shao
- Abstract要約: 本稿では,ロボットのスキルを効率的に伝達するために,微分可能な物理シミュレーションを活用する新しいフレームワークを提案する。
$textitDiff-Transfer$は、あるサブタスクから既知のアクションを適応させ、他のサブタスクにうまく取り組む。
本稿では,タスクレベルの状態と報酬を考慮したQ$ラーニングを利用して,サブタスクを生成する新しいパスプランニング手法を提案する。
- 参考スコア(独自算出の注目度): 17.961267576109492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The capability to transfer mastered skills to accomplish a range of similar
yet novel tasks is crucial for intelligent robots. In this work, we introduce
$\textit{Diff-Transfer}$, a novel framework leveraging differentiable physics
simulation to efficiently transfer robotic skills. Specifically,
$\textit{Diff-Transfer}$ discovers a feasible path within the task space that
brings the source task to the target task. At each pair of adjacent points
along this task path, which is two sub-tasks, $\textit{Diff-Transfer}$ adapts
known actions from one sub-task to tackle the other sub-task successfully. The
adaptation is guided by the gradient information from differentiable physics
simulations. We propose a novel path-planning method to generate sub-tasks,
leveraging $Q$-learning with a task-level state and reward. We implement our
framework in simulation experiments and execute four challenging transfer tasks
on robotic manipulation, demonstrating the efficacy of $\textit{Diff-Transfer}$
through comprehensive experiments. Supplementary and Videos are on the website
https://sites.google.com/view/difftransfer
- Abstract(参考訳): 類似するが、新しいタスクをこなすためにマスタードスキルを伝達する能力は、インテリジェントなロボットにとって不可欠である。
本研究は,ロボットのスキルを効率的に伝達するために,微分可能な物理シミュレーションを活用する新しいフレームワークである$\textit{Diff-Transfer}$を紹介する。
具体的には、$\textit{Diff-Transfer}$は、ターゲットタスクにソースタスクをもたらすタスク空間内で実行可能なパスを発見する。
2つのサブタスクであるタスクパスに沿って隣接する各2つのポイントで、$\textit{diff-transfer}$は、あるサブタスクから既知のアクションを適応させ、他のサブタスクにうまく取り組む。
適応は微分可能な物理シミュレーションの勾配情報によって導かれる。
タスクレベルの状態と報酬を持つ$q$-learningを活用した,サブタスク生成のための新しいパスプランニング手法を提案する。
シミュレーション実験の枠組みを実装し,ロボット操作における4つの困難な伝達タスクを実行し,包括的な実験を通じて$\textit{diff-transfer}$の有効性を示す。
補足とビデオはhttps://sites.google.com/view/difftransferにある。
関連論文リスト
- Skill Transfer and Discovery for Sim-to-Real Learning: A Representation-Based Viewpoint [13.28437541072843]
表現学習を用いたロボット制御の文脈において,シミュレート・トゥ・リアルなスキル伝達と発見について検討した。
本研究では,実世界のデータから,シム・トゥ・リアルのギャップに起因する新たなスキルを学習する技術発見アルゴリズムを提案する。
我々のスキル発見アプローチは、sim-to-realギャップを狭め、現実世界のコントローラのパフォーマンスを最大30.2%向上させるのに役立つ。
論文 参考訳(メタデータ) (2024-04-07T19:22:51Z) - Task2Morph: Differentiable Task-inspired Framework for Contact-Aware Robot Design [5.4795537587182475]
本稿では,タスク2Morphと呼ばれる接触認識型ロボット設計のための,新しい識別可能なタスクインスパイアされたフレームワークを提案する。
そこでは,マッピング学習と全最適化の両方に勾配情報を活用した,微分可能なロボット設計プロセスにマッピングを組み込む。
実験は3つのシナリオで実施され,Task2MorphがDiffHandより優れていることが確認された。
論文 参考訳(メタデータ) (2024-03-28T02:02:00Z) - $\pi$-Tuning: Transferring Multimodal Foundation Models with Optimal
Multi-task Interpolation [30.551283402200657]
$pi$-Tuningは、視覚、言語、視覚言語タスクのための普遍的なパラメータ効率の伝達学習手法である。
ターゲットの下流タスクを支援するために、同様のタスクから学んだ軽量なタスク固有の専門家のパラメータを集約する。
論文 参考訳(メタデータ) (2023-04-27T17:49:54Z) - Learning Tool Morphology for Contact-Rich Manipulation Tasks with
Differentiable Simulation [27.462052737553055]
本稿では,異なる物理シミュレータを応用して,コンタクトリッチな操作タスクのためのツール形態を自動学習するエンドツーエンドフレームワークを提案する。
提案手法では,タスク性能に関する目的を定義し,タスクの変動をランダムにすることで,頑健な形態学の学習を可能にする。
提案手法の有効性を, ロープの巻き上げ, 箱をひっくり返し, ピースをスクープに押し付けるなど, 様々なシナリオにおける新しいツールの設計手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-11-04T00:57:36Z) - VIMA: General Robot Manipulation with Multimodal Prompts [82.01214865117637]
ロボット操作タスクの幅広い範囲をマルチモーダルプロンプトで表現できることを示す。
我々は,数千の手続き的に生成されたテーブルトップタスクからなる新しいシミュレーションベンチマークを開発した。
我々は、これらのプロンプトを処理し、自動回帰的に運動動作を出力するトランスフォーマーベースのロボットエージェントVIMAを設計する。
論文 参考訳(メタデータ) (2022-10-06T17:50:11Z) - FETA: A Benchmark for Few-Sample Task Transfer in Open-Domain Dialogue [70.65782786401257]
本研究は、オープンドメイン対話における少数サンプルタスク転送のベンチマークであるFETAを導入することにより、対話型タスク転送について検討する。
FETAには10タスクと7タスクがアノテートされた2つの基礎的な会話が含まれており、データセット内タスク転送の研究を可能にする。
3つの人気のある言語モデルと3つの学習アルゴリズムを用いて、132のソースターゲットタスクペア間の転送可能性を分析する。
論文 参考訳(メタデータ) (2022-05-12T17:59:00Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Transformers for One-Shot Visual Imitation [28.69615089950047]
人間は、意図を推測し、過去の経験を使って同じ目的を達成することで、他人をシームレスに模倣することができる。
ロボット模倣学習の以前の研究は、専門家の人間のオペレーターから多様なスキルを習得できるエージェントを作成した。
本稿では,ロボットが過去の経験を生かして,これらの領域のギャップを部分的に埋めることのできる手法について検討する。
論文 参考訳(メタデータ) (2020-11-11T18:41:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。