論文の概要: Stage Conscious Attention Network (SCAN) : A Demonstration-Conditioned
Policy for Few-Shot Imitation
- arxiv url: http://arxiv.org/abs/2112.02278v1
- Date: Sat, 4 Dec 2021 08:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:35:47.899249
- Title: Stage Conscious Attention Network (SCAN) : A Demonstration-Conditioned
Policy for Few-Shot Imitation
- Title(参考訳): stage conscious attention network (scan) : 数発模倣のための実演条件付きポリシー
- Authors: Jia-Fong Yeh, Chi-Ming Chung, Hung-Ting Su, Yi-Ting Chen, Winston H.
Hsu
- Abstract要約: ステージ意識型注意ネットワーク(SCAN)を導入し、少数のデモンストレーションから知識を同時に取得する。
SCANは、説明可能な可視化を伴う複雑な複雑なタスクにおいて、微調整やパフォーマンスのベースラインを損なうことなく、さまざまな専門家から学ぶことができる。
- 参考スコア(独自算出の注目度): 28.033961851480576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In few-shot imitation learning (FSIL), using behavioral cloning (BC) to solve
unseen tasks with few expert demonstrations becomes a popular research
direction. The following capabilities are essential in robotics applications:
(1) Behaving in compound tasks that contain multiple stages. (2) Retrieving
knowledge from few length-variant and misalignment demonstrations. (3) Learning
from a different expert. No previous work can achieve these abilities at the
same time. In this work, we conduct FSIL problem under the union of above
settings and introduce a novel stage conscious attention network (SCAN) to
retrieve knowledge from few demonstrations simultaneously. SCAN uses an
attention module to identify each stage in length-variant demonstrations.
Moreover, it is designed under demonstration-conditioned policy that learns the
relationship between experts and agents. Experiment results show that SCAN can
learn from different experts without fine-tuning and outperform baselines in
complicated compound tasks with explainable visualization.
- Abstract(参考訳): 数発の模倣学習(FSIL)では、行動クローニング(BC)を使用して、専門家によるデモンストレーションがほとんどない未確認タスクを解決することが、一般的な研究方向となっている。
1) 複数の段階を含む複合タスクにおける作業。
2) わずかな長さ変化と誤用による知識の獲得。
(3)別の専門家から学ぶ。
以前の仕事は、同時にこれらの能力を達成することはできない。
本研究は, FSIL問題に対して, 実演の少ない段階意識型注意ネットワーク(SCAN)を導入し, 同時に知識を抽出する手法を提案する。
SCANは注目モジュールを使用して、長さ可変のデモで各ステージを識別する。
さらに、専門家とエージェントの関係を学習する実証条件付きポリシーの下で設計されている。
実験の結果,複雑な複合作業のベースラインを微調整することなく,異なる専門家からスキャニングを学べることがわかった。
関連論文リスト
- PRISE: Learning Temporal Action Abstractions as a Sequence Compression
Problem [42.48407749973668]
時間的行動抽象化は、信念状態表現とともに、シーケンシャルな意思決定のための強力な知識共有メカニズムである。
本稿では,時間的動作の抽象化をシーケンス圧縮問題として扱う新しい視点を提案する。
本稿では,連続的なアクション量子化とバイトペア符号化を組み合わせて,強力なアクション抽象化を学習するアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T04:55:09Z) - Conditional Neural Expert Processes for Learning from Demonstration [2.28438857884398]
条件付きニューラルネットワークプロセス(CNEP)は、異なるモードから異なる専門家ネットワークにデモを割り当てることを学ぶ。
CNEPは、軌道がどのモードに属するかの監督を必要としない。
本稿では,CNEPモデルにより,新しい開始点と目的地点が提供されると,実際のマニピュレータによる障害物回避作業が達成されることを示す。
論文 参考訳(メタデータ) (2024-02-13T12:52:02Z) - Scaling In-Context Demonstrations with Structured Attention [75.41845145597875]
我々は、文脈内学習のためのより優れたアーキテクチャ設計を提案する。
In-Context Learningのための構造化アテンションは、構造化アテンションメカニズムによって完全なアテンションを置き換える。
SAICLは、最大3.4倍の推論速度で、フルアテンションよりも同等または優れた性能を実現していることを示す。
論文 参考訳(メタデータ) (2023-07-05T23:26:01Z) - Skill Disentanglement for Imitation Learning from Suboptimal
Demonstrations [60.241144377865716]
我々は、小さなクリーンな実演セットと大きなノイズセットの両方で、準最適実演の模倣を考える。
本稿では,様々な品質のアクションプリミティブを異なるスキルに符号化し,サブデモレーションレベルの評価と模倣を行う手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T17:24:37Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Learning Neuro-Symbolic Skills for Bilevel Planning [63.388694268198655]
意思決定は、連続したオブジェクト中心の状態、継続的なアクション、長い地平線、まばらなフィードバックを持つロボット環境では難しい。
タスク・アンド・モーション・プランニング(TAMP)のような階層的なアプローチは、意思決定を2つ以上の抽象レベルに分解することでこれらの課題に対処する。
我々の主な貢献は、オペレーターとサンプルラーを組み合わせたパラメータ化警察の学習方法である。
論文 参考訳(メタデータ) (2022-06-21T19:01:19Z) - Towards More Generalizable One-shot Visual Imitation Learning [81.09074706236858]
汎用ロボットは、幅広いタスクを習得し、過去の経験を生かして、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(OSIL)は、専門家のデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
我々は、より野心的なマルチタスク設定を調査することで、より高度な一般化能力を追求する。
論文 参考訳(メタデータ) (2021-10-26T05:49:46Z) - Automatic Curricula via Expert Demonstrations [6.651864489482536]
本稿では、強化学習(RL)アプローチとして、エキスパートデモ(ACED)による自動カリキュラムを提案する。
ACEDは、デモンストレーションをセクションに分割し、トレーニングエピソードを異なるセクションからサンプリングされた状態に初期化することによって、専門家のデモ軌跡からキュリキュラを抽出する。
本稿では,ACEDと行動クローニングを組み合わせることで,最大1個の実演と20個の実演で積み重ねタスクを学習できることを示す。
論文 参考訳(メタデータ) (2021-06-16T22:21:09Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z) - Elaborating on Learned Demonstrations with Temporal Logic Specifications [20.815131169609316]
私たちのシステムは、トレーニングで見られるものだけでなく、目に見えない入力に関する所定の仕様を満たすことを学びます。
より単純な仕様をインクリメンタルに構成することで、複雑な仕様でベースデモを変更できることが示される。
また,このシステムをPR-2ロボットに実装し,実証者が初期(準最適)のデモからどのように始めて,対話的にタスク成功を改善するかを示す。
論文 参考訳(メタデータ) (2020-02-03T14:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。