論文の概要: Meta Prompting for AI Systems
- arxiv url: http://arxiv.org/abs/2311.11482v6
- Date: Sat, 15 Jun 2024 08:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 11:31:28.931722
- Title: Meta Prompting for AI Systems
- Title(参考訳): AIシステムのためのメタプロンプティング
- Authors: Yifan Zhang, Yang Yuan, Andrew Chi-Chih Yao,
- Abstract要約: 本稿では,言語モデル(LM)とAIシステムを利用した問題解決とデータインタラクションの革新的手法であるMeta Prompting(MP)について包括的な研究を行う。
MPは従来のコンテンツ中心の手法よりも情報の構造と構文を強調している。
複雑な問題をより単純なサブプロブレムに効果的に分解し、トークン効率を向上し、より公平な問題解決比較を可能にする方法を示す。
- 参考スコア(独自算出の注目度): 12.304069891580658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present a comprehensive study of Meta Prompting (MP), an innovative technique reshaping the utilization of language models (LMs) and AI systems in problem-solving and data interaction. Grounded in type theory and category theory, Meta Prompting emphasizes the structure and syntax of information over traditional content-centric methods. The paper explores the formal definitions of Meta Prompting, sets it apart from few-shot prompting, and underlines its effectiveness in various AI applications. A key focus is applying Meta Prompting for complex reasoning tasks, showing how it effectively deconstructs intricate problems into simpler sub-problems, enhancing token efficiency, and enabling more equitable problem-solving comparisons, especially against few-shot prompting methods. Additionally, the paper introduces Meta Prompting for prompting tasks, allowing LLMs to self-generate new prompts in a recursive, metaprogramming-like manner. Empirical experiments, including using a Qwen-72B base language model equipped with meta prompt without instruction-tuning to solve MATH problems with accuracy at 46.3%, which surpass the supervised fine-tuned counterpart trained with extensive mathematical QA instruction pairs and even the initial version of GPT-4, solving GSM8K problems with 83.5% accuracy with zero-shot meta-prompted Qwen-72B base language model, and solving the Game of 24 tasks with a 100% success rate using GPT-4, demonstrate the meta prompting's efficacy in achieving high accuracy and efficiency, showcasing Meta Prompting's transformative impact on AI problem-solving The code is available at https://github.com/meta-prompting/meta-prompting.
- Abstract(参考訳): 本稿では,メタ・プロンプティング(MP)を包括的に研究し,問題解決とデータインタラクションにおける言語モデル(LM)とAIシステムの利用を再構築する革新的手法を提案する。
型理論と圏論に根ざしたメタ・プロンプティングは、伝統的なコンテンツ中心の手法よりも情報の構造と構文を強調している。
この論文はメタプロンプトの形式的定義を探求し、いくつかのプロンプトから分離し、様々なAIアプリケーションにおけるその効果を裏付けるものである。
重要な焦点は、複雑な推論タスクにMeta Promptingを適用することであり、複雑な問題をより単純なサブプロブレムに効果的に分解し、トークン効率を向上し、より公平な問題解決比較を可能にする。
さらに,LLMが再帰的メタプログラミング的な方法で新たなプロンプトを自己生成できるように,タスクのプロンプトのためのメタプロンプトを導入する。
Qwen-72Bベース言語モデルに命令調整なしでメタプロンプトを装備したメタプロンプトを46.3%の精度で解くこと、広範囲な数学的QA命令ペアとGPT-4の初期バージョンで訓練された教師付き微調整の問題を83.5%の精度で解決すること、GPT-4を使用した24のタスクを100%成功率で解決すること、GPT-4を使用したメタプロンプトのメタプロンプトの有効性を実証すること、AI問題に対するメタプロンプトの変換的影響を例示することを含む経験的な実験である。
関連論文リスト
- Prompt Learning via Meta-Regularization [18.518214936430816]
本稿では,プロンプトメタ規則化(ProMetaR)を提案する。
ProMetaRは、正規化器とソフトプロンプトの両方をメタラーニングし、下流のタスクからタスク固有の知識と視覚言語モデルからタスクに依存しない一般的な知識を利用する。
論文 参考訳(メタデータ) (2024-04-01T01:42:23Z) - On Meta-Prompting [18.949285430843695]
これらのアプローチをメタプロンプトと呼ぶか、あるいはプロンプトを得るよう促す。
本稿では,圏論に基づく理論的枠組みを提案し,それらを一般化し記述する。
論文 参考訳(メタデータ) (2023-12-11T17:46:44Z) - Effective Structured Prompting by Meta-Learning and Representative Verbalizer [27.64413828719264]
効果的な構造化プロンプトのためのメタプロンプターを提案する。
本稿では,特徴埋め込みから直接ラベル埋め込みを構築する新しいソフトな動詞変換器(RepVerb)を提案する。
実験の結果,MetaPrompterは最近の最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-01T12:44:33Z) - Error Analysis Prompting Enables Human-Like Translation Evaluation in Large Language Models [57.80514758695275]
機械翻訳(MT)の品質を評価するために,大規模言語モデル(LLM)を用いることで,システムレベルでの最先端のパフォーマンスを実現する。
我々はtextbftexttError Analysis Prompting (EAPrompt) と呼ばれる新しいプロンプト手法を提案する。
本手法は,多次元品質指標 (MQM) とtextitproduces を用いて,システムレベルとセグメントレベルの両方で説明可能かつ信頼性の高いMT評価を行う。
論文 参考訳(メタデータ) (2023-03-24T05:05:03Z) - Self-supervised Meta-Prompt Learning with Meta-Gradient Regularization
for Few-shot Generalization [40.45470744120691]
MEta-gradient regularization for few-shot generalization (SUPMER)による自己改善メタプロンプト学習フレームワーク
本稿では,Meta-gradient regularization for few-shot generalization (SUPMER)を用いた自己改善メタプロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T05:04:21Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - MetaPrompting: Learning to Learn Better Prompts [52.914694884515534]
本稿では,メタプロンプトと呼ばれるソフトプロンプト手法を提案する。
大規模な実験は、MetaPromptingが4つの異なるデータセットに大きな改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-23T09:01:05Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.85241791994562]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。