論文の概要: Let Me Check the Examples: Enhancing Demonstration Learning via Explicit
Imitation
- arxiv url: http://arxiv.org/abs/2209.00455v1
- Date: Wed, 31 Aug 2022 06:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:25:55.256003
- Title: Let Me Check the Examples: Enhancing Demonstration Learning via Explicit
Imitation
- Title(参考訳): 例を見てみましょう:明示的模倣による実証学習の促進
- Authors: Sirui Wang, Kaiwen Wei, Hongzhi Zhang, Yuntao Li and Wei Wu
- Abstract要約: デモ学習は、いくつかのショット設定で回答されたデモを提供することで、迅速な予測を導くことを目的としている。
既存の作業は、追加操作なしでプロンプトテンプレートのデモとして、回答された例のみをコーポラ化する。
我々は、人間のレビュー行動を明確に模倣することで、実証学習を強化するためにImitation DEMOnstration Learning (Imitation-Demo)を導入した。
- 参考スコア(独自算出の注目度): 9.851250429233634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Demonstration learning aims to guide the prompt prediction via providing
answered demonstrations in the few shot settings. Despite achieving promising
results, existing work only concatenates the answered examples as
demonstrations to the prompt template (including the raw context) without any
additional operation, neglecting the prompt-demonstration dependencies.
Besides, prior research found that randomly replacing the labels of
demonstrations marginally hurts performance, illustrating that the model could
not properly learn the knowledge brought by the demonstrations. Inspired by the
human learning process, in this paper, we introduce Imitation DEMOnstration
Learning (Imitation-Demo) to strengthen demonstration learning via explicitly
imitating human review behaviour, which includes: (1) contrastive learning
mechanism to concentrate on the similar demonstrations. (2) demonstration-label
re-prediction method to consolidate known knowledge. Experiment results show
that our proposed method achieves state-of-the-art performance on 11 out of 14
classification corpora. Further studies also prove that Imitation-Demo
strengthen the association between prompt and demonstrations, which could
provide the basis for exploring how demonstration learning works.
- Abstract(参考訳): デモ学習は、いくつかのショット設定で回答されたデモを提供することで、迅速な予測を導くことを目的としている。
有望な結果を達成するにも拘わらず、既存の作業は、応答された例を(生のコンテキストを含む)プロンプトテンプレートのデモとしてのみ結合し、プロンプト-デモの依存関係を無視する。
さらに、以前の研究では、デモのラベルをランダムに置き換えることでパフォーマンスが損なわれ、モデルがデモによってもたらされる知識を適切に学べないことが示されている。
本稿では,人間学習プロセスに着想を得て,人間レビュー行動の明示的模倣による実証学習の強化を目的とした模倣デモンストレーション学習(imitation-demo)を提案する。
2) 既知の知識を統合するための実証ラベル再予測手法
実験の結果,提案手法は14の分類コーパスのうち11の最先端性能を達成できた。
さらなる研究により、Imitation-Demoはプロンプトとデモの関連を強化し、デモ学習の仕組みを探求する基盤を提供する可能性があることが証明された。
関連論文リスト
- Demonstration Notebook: Finding the Most Suited In-Context Learning Example from Interactions [8.869100154323643]
実験ノート」と呼ばれる新しい物体を中心に構築された新しいプロンプトエンジニアリングワークフローを提案する。
このノートブックは、LLMの過去のインタラクションから情報を収集して再利用することで、質問に対して最も適したコンテキスト内学習例を特定するのに役立つ。
実験により, 提案手法は, 自動的な実演構築と選択において, 既存の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-06-16T10:02:20Z) - Imitation Learning from Purified Demonstrations [47.52316615371601]
本稿では,まず不完全な実演における潜在的な雑音を除去し,その後,これらの実演から模擬学習を行うことを提案する。
提案手法を裏付ける理論的証拠を提示し, 精製された実演と最適実演との距離を有界化できることを実証する。
論文 参考訳(メタデータ) (2023-10-11T02:36:52Z) - Scaling In-Context Demonstrations with Structured Attention [75.41845145597875]
我々は、文脈内学習のためのより優れたアーキテクチャ設計を提案する。
In-Context Learningのための構造化アテンションは、構造化アテンションメカニズムによって完全なアテンションを置き換える。
SAICLは、最大3.4倍の推論速度で、フルアテンションよりも同等または優れた性能を実現していることを示す。
論文 参考訳(メタデータ) (2023-07-05T23:26:01Z) - Skill Disentanglement for Imitation Learning from Suboptimal
Demonstrations [60.241144377865716]
我々は、小さなクリーンな実演セットと大きなノイズセットの両方で、準最適実演の模倣を考える。
本稿では,様々な品質のアクションプリミティブを異なるスキルに符号化し,サブデモレーションレベルの評価と模倣を行う手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T17:24:37Z) - Boosting Reinforcement Learning and Planning with Demonstrations: A
Survey [25.847796336059343]
シーケンシャルな意思決定にデモを使うことの利点について論じる。
我々は,最近提案されたManiSkillロボット学習ベンチマークにおいて,デモの生成と活用のための実用的なパイプラインを実演する。
論文 参考訳(メタデータ) (2023-03-23T17:53:44Z) - Out-of-Dynamics Imitation Learning from Multimodal Demonstrations [68.46458026983409]
本研究では,実演者と模倣者が同じ状態空間を持つという仮定を緩和する,動的外模擬学習(OOD-IL)について検討する。
OOD-ILは、様々なデモ参加者のデモを利用するための模倣学習を可能にするが、新しい挑戦を導入する。
我々は,この新たな課題に取り組むために,より優れた伝達可能性測定法を開発した。
論文 参考訳(メタデータ) (2022-11-13T07:45:06Z) - Robustness of Demonstration-based Learning Under Limited Data Scenario [54.912936555876826]
実証に基づく学習は、限られたデータシナリオ下で事前訓練された言語モデルの能力を刺激する大きな可能性を示している。
実演と予測の間に明確な整合性がないため、なぜこのような実演が学習プロセスに有益なのかは不明だ。
本稿では,実証に基づくシーケンスラベリングの頑健さを深く掘り下げるために,標準情報から直感的に有用な情報を徐々に取り除き,病理デモを設計する。
論文 参考訳(メタデータ) (2022-10-19T16:15:04Z) - Extraneousness-Aware Imitation Learning [25.60384350984274]
Extraneousness-Aware Learning (EIL)は、外部サブシーケンスを用いた第三者によるデモンストレーションから、ビズモタポリシーを学ぶ。
EILは、自己監督された方法で行動条件付き観察埋め込みを学習し、視覚的なデモンストレーション全体にわたってタスク関連観測を検索する。
実験の結果、EILは強いベースラインを上回り、完璧なデモで訓練した人たちと同等のポリシーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-10-04T04:42:26Z) - Rethinking the Role of Demonstrations: What Makes In-Context Learning
Work? [112.72413411257662]
大規模言語モデル(LM)は、いくつかのインプットラベルペア(デモ)を条件付けして、新しいインプットの予測を行うことで、インコンテキストで学習することができる。
実演のラベルをランダムに置き換えることは、パフォーマンスをほとんど損なうものではない。
デモの他の側面が、エンドタスクのパフォーマンスの主要な要因であることに気付きました。
論文 参考訳(メタデータ) (2022-02-25T17:25:19Z) - Learning Feasibility to Imitate Demonstrators with Different Dynamics [23.239058855103067]
実演から学ぶことのゴールは、実演の動作を模倣してエージェント(模倣者)のポリシーを学ぶことである。
我々は、実演が模倣者によって実現可能である可能性を捉えた実現可能性指標を学習する。
シミュレーションされた4つの環境と実際のロボットを用いた実験により,本手法で学んだ方針が,従来よりも期待されたリターンを達成できることが判明した。
論文 参考訳(メタデータ) (2021-10-28T14:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。