論文の概要: ConstitutionalExperts: Training a Mixture of Principle-based Prompts
- arxiv url: http://arxiv.org/abs/2403.04894v1
- Date: Thu, 7 Mar 2024 20:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:33:24.325126
- Title: ConstitutionalExperts: Training a Mixture of Principle-based Prompts
- Title(参考訳): constitutionalexperts: 原則に基づくプロンプトの混合をトレーニングする
- Authors: Savvas Petridis, Ben Wedin, Ann Yuan, James Wexler, Nithum Thain
- Abstract要約: 我々は、憲法原則(すなわち、規則)からなるプロンプトの学習方法であるConstitutionalExpertsを紹介する。
従来の方法とは異なり,本手法は個々の原則を外科的に編集することにより,プロンプトを段階的に改善する。
また、トレーニングデータの異なる意味領域に対して、ユニークなプロンプトを学習することで、全体的なパフォーマンスを向上させることができることを示す。
- 参考スコア(独自算出の注目度): 12.117381357942206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are highly capable at a variety of tasks given
the right prompt, but writing one is still a difficult and tedious process. In
this work, we introduce ConstitutionalExperts, a method for learning a prompt
consisting of constitutional principles (i.e. rules), given a training dataset.
Unlike prior methods that optimize the prompt as a single entity, our method
incrementally improves the prompt by surgically editing individual principles.
We also show that we can improve overall performance by learning unique prompts
for different semantic regions of the training data and using a
mixture-of-experts (MoE) architecture to route inputs at inference time. We
compare our method to other state of the art prompt-optimization techniques
across six benchmark datasets. We also investigate whether MoE improves these
other techniques. Our results suggest that ConstitutionalExperts outperforms
other prompt optimization techniques by 10.9% (F1) and that mixture-of-experts
improves all techniques, suggesting its broad applicability.
- Abstract(参考訳): 大きな言語モデル(LLM)は、正しいプロンプトを与えられた様々なタスクに対して高い能力を持つが、それを書くのは難しくて面倒なプロセスである。
そこで本研究では,訓練データセットに与えられた基本原則(すなわち規則)からなるプロンプトを学習する手法であるconstitentexpertsを提案する。
従来の方法とは異なり,本手法は個々の原則を外科的に編集することにより,プロンプトを段階的に改善する。
また、トレーニングデータの異なる意味領域のユニークなプロンプトを学習し、Mix-of-experts(MoE)アーキテクチャを用いて、推論時に入力をルーティングすることで、全体的なパフォーマンスを向上させることができることを示す。
本手法を,6つのベンチマークデータセットにまたがって,アートプロンプト最適化手法の他の状況と比較した。
また,MoEが他の手法を改良するかどうかについても検討する。
以上の結果から,コンスティチューショナル・エクスプットは,他の迅速な最適化手法よりも10.9%向上し,全ての手法が改良され,適用可能性も広いことが示唆された。
関連論文リスト
- Large Language Models Prompting With Episodic Memory [53.8690170372303]
本稿では,POEM(PrOmpting with Episodic Memory)を提案する。
テストフェーズでは、各テストクエリのサンプルのシーケンスを最適化し、エピソードメモリにおけるトップkで最も類似したトレーニング例から最も高い合計報酬を得るシーケンスを選択する。
その結果,POEMはテキスト分類タスクにおいてTEMPERAやRLPromptといった最近の技術よりも5.3%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-14T11:19:28Z) - One Prompt is not Enough: Automated Construction of a Mixture-of-Expert Prompts [110.94724216491753]
大規模言語モデル(LLM)は、言語命令やコンテキスト内デモによって、強力な一般化能力を示す。
命令設計を自動化するために様々な手法が検討されてきたが、探索されたプロンプトを1つの命令に制限した。
我々はMixture-of-Expertパラダイムを採用し、問題空間を一連のサブリージョンに分割する。
地域ごとに専門的な専門家を構築するための2段階のプロセスが開発されている。
専門家1人当たりの命令の地域ベースの共同探索は、それに割り当てられたデモを補完し、相乗効果をもたらす。
論文 参考訳(メタデータ) (2024-06-28T23:05:08Z) - Prompt Customization for Continual Learning [57.017987355717935]
本稿では,継続的学習のためのプロンプト的アプローチを再構築し,プロンプト的カスタマイズ(PC)手法を提案する。
PCは主にプロンプト生成モジュール(PGM)とプロンプト変調モジュール(PMM)で構成される。
提案手法は,クラス,ドメイン,タスクに依存しないインクリメンタル学習タスクを含む3つの異なる設定に対して,4つのベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-04-28T03:28:27Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - COMMA: Co-Articulated Multi-Modal Learning [39.778958624066185]
本稿では,従来の手法の制約に対処するため,COMMA(Co-Articulated Multi-Modal Learning)を提案する。
本手法は,両枝の表現アライメントを高めるプロンプトを生成するために,両枝からのプロンプトを考察する。
提案手法は,新しいクラスへの一般化,新しいターゲットデータセット,目に見えないドメインシフトの3つのタスクにまたがって評価する。
論文 参考訳(メタデータ) (2023-12-30T15:47:36Z) - DPL: Decoupled Prompt Learning for Vision-Language Models [41.90997623029582]
本稿では,この問題を緩和するために,学習者の注意を再構築する新しい手法,Decoupled Prompt Learningを提案する。
我々のアプローチは、視覚的・テキスト的モダリティの両方に柔軟であり、マルチモーダル・プロンプト・ラーニングに容易に拡張できる。
論文 参考訳(メタデータ) (2023-08-19T15:48:38Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Learning a Better Initialization for Soft Prompts via Meta-Learning [58.53984967461313]
本稿では,プロンプトチューニングを改善するメタPT(Meta-learned Prompt Tuning)を提案する。
まず、事前学習したデータを異なる補助タスクにクラスタリングすることで、その構造を導入する。
これらのタスクをメタ学習アルゴリズムでプロンプトの事前学習に使用する。
論文 参考訳(メタデータ) (2022-05-25T03:50:23Z) - Pretext-Contrastive Learning: Toward Good Practices in Self-supervised
Video Representation Leaning [43.002621928500425]
そこで本稿では,プレテキストタスクとコントラスト学習の両方を強化するための共同最適化フレームワークを提案する。
PCLを標準的なトレーニング戦略として扱い、それを自己教師付きビデオ特徴学習の他の多くの分野に適用することは便利である。
論文 参考訳(メタデータ) (2020-10-29T10:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。