論文の概要: Verifiable Learned Behaviors via Motion Primitive Composition:
Applications to Scooping of Granular Media
- arxiv url: http://arxiv.org/abs/2309.14894v1
- Date: Tue, 26 Sep 2023 12:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 13:41:38.460076
- Title: Verifiable Learned Behaviors via Motion Primitive Composition:
Applications to Scooping of Granular Media
- Title(参考訳): 運動原始組成による検証可能な学習行動:グラニュラーメディアのスクーピングへの応用
- Authors: Andrew Benton, Eugen Solowjow, Prithvi Akella
- Abstract要約: 自然言語の抽象者によって作成された学習行動が構築によって検証できる枠組みを構築した。
本研究では,この検証可能な行動生成能力について,探索作業におけるシミュレーションと,粒状メディアをスクープするロボットによるハードウェア上で実証する。
- 参考スコア(独自算出の注目度): 4.467856695642982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robotic behavior model that can reliably generate behaviors from natural
language inputs in real time would substantially expedite the adoption of
industrial robots due to enhanced system flexibility. To facilitate these
efforts, we construct a framework in which learned behaviors, created by a
natural language abstractor, are verifiable by construction. Leveraging recent
advancements in motion primitives and probabilistic verification, we construct
a natural-language behavior abstractor that generates behaviors by synthesizing
a directed graph over the provided motion primitives. If these component motion
primitives are constructed according to the criteria we specify, the resulting
behaviors are probabilistically verifiable. We demonstrate this verifiable
behavior generation capacity in both simulation on an exploration task and on
hardware with a robot scooping granular media.
- Abstract(参考訳): 自然言語入力から動作をリアルタイムで確実に生成できるロボット行動モデルは、システムの柔軟性の向上による産業用ロボットの採用を大幅に高速化する。
これらの取り組みを容易にするために、自然言語抽象化によって作成された学習行動が構築によって検証可能な枠組みを構築する。
動きプリミティブの最近の進歩と確率的検証を利用して,与えられた動きプリミティブ上で有向グラフを合成して振る舞いを生成する自然言語行動抽象化器を構築する。
これらの成分運動プリミティブが我々が指定した基準に従って構築されている場合、結果の挙動は確率的に検証可能である。
この検証可能な行動生成能力は,探索作業におけるシミュレーションと,粒状メディアをスクープするロボットによるハードウェアの両方において示される。
関連論文リスト
- FactorSim: Generative Simulation via Factorized Representation [14.849320460718591]
本稿では,エージェントの訓練に使用できる言語入力から,コード中のフルシミュレーションを生成するFACTORSIMを提案する。
評価のために、我々は、強化学習環境におけるゼロショット転送を容易にするため、生成したシミュレーションコードの精度と有効性を評価できる生成シミュレーションベンチマークを導入する。
その結果、FACTORSIMは、即時アライメント(例えば、精度)、ゼロショット転送能力、人的評価に関するシミュレーションを生成する上で、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T09:00:30Z) - Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - DiffGen: Robot Demonstration Generation via Differentiable Physics Simulation, Differentiable Rendering, and Vision-Language Model [72.66465487508556]
DiffGenは、微分可能な物理シミュレーション、微分可能なレンダリング、ビジョン言語モデルを統合する新しいフレームワークである。
言語命令の埋め込みとシミュレートされた観察の埋め込みとの距離を最小化することにより、現実的なロボットデモを生成することができる。
実験によると、DiffGenを使えば、人間の努力やトレーニング時間を最小限に抑えて、ロボットデータを効率よく、効果的に生成できる。
論文 参考訳(メタデータ) (2024-05-12T15:38:17Z) - InsActor: Instruction-driven Physics-based Characters [65.4702927454252]
本稿では,物理系文字の命令駆動型アニメーションを生成する,原理的生成フレームワークを提案する。
我々のフレームワークは、InsActorに高レベルな人間の指示とキャラクターの動きの間の複雑な関係をキャプチャする権限を与える。
InsActorは、命令駆動のモーション生成や命令駆動のウェイポイント誘導など、様々なタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-28T17:10:31Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - VoxPoser: Composable 3D Value Maps for Robotic Manipulation with
Language Models [38.503337052122234]
大規模言語モデル(LLM)は、ロボット操作のために抽出できる豊富な行動可能な知識を持っていることが示されている。
我々は,オープンな命令セットとオープンなオブジェクトセットが与えられた様々な操作タスクに対して,ロボット軌道を合成することを目指している。
筆者らは,接触に富んだインタラクションを含むシーンのダイナミックスモデルを効率的に学習することで,提案フレームワークがオンライン体験の恩恵を享受できることを実証する。
論文 参考訳(メタデータ) (2023-07-12T07:40:48Z) - Inference of Affordances and Active Motor Control in Simulated Agents [0.5161531917413706]
本稿では,出力確率,時間的予測,モジュール型人工ニューラルネットワークアーキテクチャを提案する。
我々のアーキテクチャは、割当マップと解釈できる潜在状態が発達していることを示す。
アクティブな推論と組み合わせることで、フレキシブルでゴール指向の動作が実行可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T14:13:04Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - DeepSym: Deep Symbol Generation and Rule Learning from Unsupervised
Continuous Robot Interaction for Planning [1.3854111346209868]
ロボットアームハンドシステムは、プッシュとスタックアクションから「ロータブル」、「インサータブル」、「ラーガー・サン」と解釈できるシンボルを学習する。
本システムは,ロボットアームハンドシステムにおいて,その動作から「回転可能」,「不可能」,「大きい」と解釈可能なシンボルを学習する物理に基づく3次元シミュレーション環境で検証する。
論文 参考訳(メタデータ) (2020-12-04T11:26:06Z) - Inferring Temporal Compositions of Actions Using Probabilistic Automata [61.09176771931052]
本稿では,動作の時間的構成を意味正規表現として表現し,確率的オートマトンを用いた推論フレームワークを提案する。
我々のアプローチは、長い範囲の複雑なアクティビティを、順序のないアトミックアクションのセットとして予測するか、自然言語文を使ってビデオを取得するという既存の研究とは異なる。
論文 参考訳(メタデータ) (2020-04-28T00:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。