論文の概要: Meta Prompting for AI Systems
- arxiv url: http://arxiv.org/abs/2311.11482v7
- Date: Wed, 26 Feb 2025 05:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:54:51.699637
- Title: Meta Prompting for AI Systems
- Title(参考訳): AIシステムのためのメタプロンプティング
- Authors: Yifan Zhang, Yang Yuan, Andrew Chi-Chih Yao,
- Abstract要約: 本稿では,大規模言語モデルとAIシステムの活用を促進すべく,メタ・プロンプティング(MP)を紹介した。
MPは、従来のコンテンツ中心の手法よりも構造的および構文的考察を優先する。
経験的評価では、メタプロンプトを伴わないQwen-72Bベース言語モデルでは、PASS@1の精度は46.3%である。
- 参考スコア(独自算出の注目度): 12.304069891580658
- License:
- Abstract: We introduce Meta Prompting (MP), a prompting paradigm designed to enhance the utilization of large language models (LLMs) and AI systems in complex problem-solving and data interaction. Grounded in type theory and category theory, Meta Prompting prioritizes structural and syntactical considerations over traditional content-centric methods. In this work, we formally define Meta Prompting, delineate its distinctions from few-shot prompting, and demonstrate its effectiveness across various AI applications. In particular, we show that Meta Prompting can decompose intricate reasoning tasks into simpler sub-problems, thereby improving token efficiency and enabling fairer comparisons with conventional few-shot techniques. Furthermore, we extend this framework to prompting tasks, allowing LLMs to recursively self-generate refined prompts in a metaprogramming-like manner. Empirical evaluations reveal that a Qwen-72B base language model equipped with Meta Prompting-without additional instruction tuning-achieves a PASS@1 accuracy of 46.3% on MATH problems, surpassing a supervised fine-tuned counterpart, 83.5% accuracy on GSM8K, and a 100% success rate on Game of 24 tasks using GPT-4. The code is available at https://github.com/meta-prompting/meta-prompting.
- Abstract(参考訳): 本稿では,大規模言語モデル (LLM) とAIシステムを利用した複雑な問題解決とデータインタラクションの促進を目的として,メタプロンプト(MP)を導入した。
型理論と圏論に根ざしたメタ・プロンプティングは、伝統的な内容中心の手法よりも構造的および構文的考察を優先する。
本稿では,Meta Promptingを正式に定義し,その特徴を数発のプロンプトと区別し,さまざまなAIアプリケーションにまたがってその効果を実証する。
特に,Meta Promptingは複雑な推論タスクをより単純なサブプロブレムに分解し,トークン効率を向上し,従来の少ショット技術との公平な比較を可能にする。
さらに、このフレームワークをタスクのプロンプトに拡張し、LCMがメタプログラミングのような方法で再帰的に洗練されたプロンプトを生成できるようにする。
実験的な評価によると、メタプロンプトを備えたQwen-72Bベースの言語モデルでは、MATH問題に対してPASS@1の精度が46.3%、GSM8Kでは83.5%、GPT-4ではゲーム24のタスクで100%成功している。
コードはhttps://github.com/meta-prompting/meta-promptingで入手できる。
関連論文リスト
- Prompt Learning via Meta-Regularization [18.518214936430816]
本稿では,プロンプトメタ規則化(ProMetaR)を提案する。
ProMetaRは、正規化器とソフトプロンプトの両方をメタラーニングし、下流のタスクからタスク固有の知識と視覚言語モデルからタスクに依存しない一般的な知識を利用する。
論文 参考訳(メタデータ) (2024-04-01T01:42:23Z) - On Meta-Prompting [17.34602431188454]
本稿では,カテゴリ理論に基づく理論的枠組みを提案し,プロンプトの一般化と記述を行う。
私たちは、モデル研究の2つの領域、創造性と思考でフレームワークをテストします。
論文 参考訳(メタデータ) (2023-12-11T17:46:44Z) - Effective Structured Prompting by Meta-Learning and Representative Verbalizer [27.64413828719264]
効果的な構造化プロンプトのためのメタプロンプターを提案する。
本稿では,特徴埋め込みから直接ラベル埋め込みを構築する新しいソフトな動詞変換器(RepVerb)を提案する。
実験の結果,MetaPrompterは最近の最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-01T12:44:33Z) - Error Analysis Prompting Enables Human-Like Translation Evaluation in Large Language Models [57.80514758695275]
機械翻訳(MT)の品質を評価するために,大規模言語モデル(LLM)を用いることで,システムレベルでの最先端のパフォーマンスを実現する。
我々はtextbftexttError Analysis Prompting (EAPrompt) と呼ばれる新しいプロンプト手法を提案する。
本手法は,多次元品質指標 (MQM) とtextitproduces を用いて,システムレベルとセグメントレベルの両方で説明可能かつ信頼性の高いMT評価を行う。
論文 参考訳(メタデータ) (2023-03-24T05:05:03Z) - Self-supervised Meta-Prompt Learning with Meta-Gradient Regularization
for Few-shot Generalization [40.45470744120691]
MEta-gradient regularization for few-shot generalization (SUPMER)による自己改善メタプロンプト学習フレームワーク
本稿では,Meta-gradient regularization for few-shot generalization (SUPMER)を用いた自己改善メタプロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T05:04:21Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - MetaPrompting: Learning to Learn Better Prompts [52.914694884515534]
本稿では,メタプロンプトと呼ばれるソフトプロンプト手法を提案する。
大規模な実験は、MetaPromptingが4つの異なるデータセットに大きな改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-23T09:01:05Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。