論文の概要: Meta Prompting for AGI Systems
- arxiv url: http://arxiv.org/abs/2311.11482v3
- Date: Tue, 30 Jan 2024 01:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 18:42:18.284516
- Title: Meta Prompting for AGI Systems
- Title(参考訳): AGIシステムのためのメタプロンプティング
- Authors: Yifan Zhang
- Abstract要約: Meta Promptingは、大規模言語モデル(LLM)、マルチモーダル基盤モデル、問題解決とデータ解釈におけるAIシステムの利用を再構築する革新的な技術である。
本稿では,メタプロンプティング(MP)の形式的定義を探求し,Few-Shot Promptingとは分離し,さまざまなAIアプリケーションにおけるその有効性を明らかにする。
- 参考スコア(独自算出の注目度): 5.980612601840882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a comprehensive study of Meta Prompting, an innovative
technique reshaping the utilization of large language models (LLMs),
multi-modal foundation models, and AI systems in problem-solving and data
interpretation. Grounded in type theory and category theory, Meta Prompting
emphasizes the structure and syntax of information over traditional
content-centric methods. The paper explores the formal definitions of Meta
Prompting (MP), sets it apart from Few-Shot Prompting, and underlines its
effectiveness in various AI applications. A key focus is applying Meta
Prompting for complex reasoning (MP-CR) tasks, showing how it effectively
deconstructs intricate problems into simpler sub-problems, enhancing token
efficiency, and enabling more equitable problem-solving comparisons, especially
against few-shot example methods. Additionally, the paper introduces Meta
Prompting for prompting tasks, allowing LLMs to self-generate new prompts in a
recursive, metaprogramming-like manner. This approach marks a significant leap
in AI's autonomous and adaptive capabilities. The paper also introduces the
integration of Meta Prompting into multi-modal foundation model settings,
tackling the challenges and opportunities of incorporating varied data types
such as images, audio, and video within the structured Meta Prompting
framework. Empirical experiments, including solving the Game of 24 tasks,
demonstrate the MP-CR Agent's enhanced reasoning capabilities, achieving high
accuracy and efficiency, and showcasing Meta Prompting's transformative impact
on AI problem-solving. (The code is available at
https://github.com/meta-prompting/meta-prompting)
- Abstract(参考訳): 本稿では,大規模言語モデル(llms),マルチモーダル基礎モデル,およびaiシステムを用いた問題解決とデータ解釈の革新的手法であるメタプロンプトの包括的研究について述べる。
型理論とカテゴリ理論に基礎を置き、メタプロンピングは従来のコンテンツ中心の手法よりも情報の構造と構文を強調している。
本稿では,メタプロンプティング(MP)の形式的定義を探求し,Few-Shot Promptingとは分離し,さまざまなAIアプリケーションにおけるその有効性を明らかにする。
重要な焦点は、複雑な推論(MP-CR)タスクにMeta Promptingを適用することであり、複雑な問題をより単純なサブプロブレムに効果的に分解し、トークン効率を向上し、より公平な問題解決比較を可能にする。
さらに,LLMが再帰的,メタプログラミング的な方法で新たなプロンプトを自己生成できるメタプロンプトを提案する。
このアプローチは、AIの自律性と適応性において大きな飛躍となる。
本稿では,Meta Promptingのマルチモーダル基盤モデル設定への統合についても紹介し,構造化Meta Promptingフレームワークに画像,オーディオ,ビデオなどのさまざまなデータ型を組み込む上での課題と機会について述べる。
24のゲーム」の問題解決を含む実証実験では、MP-CRエージェントの推論能力の強化、高い精度と効率の達成、メタプロンプティングのAI問題解決への変革的影響を示す。
(コードはhttps://github.com/meta-prompting/meta-promptingで利用可能)。
関連論文リスト
- Prompt Learning via Meta-Regularization [18.518214936430816]
本稿では,プロンプトメタ規則化(ProMetaR)を提案する。
ProMetaRは、正規化器とソフトプロンプトの両方をメタラーニングし、下流のタスクからタスク固有の知識と視覚言語モデルからタスクに依存しない一般的な知識を利用する。
論文 参考訳(メタデータ) (2024-04-01T01:42:23Z) - On Meta-Prompting [18.949285430843695]
これらのアプローチをメタプロンプトと呼ぶか、あるいはプロンプトを得るよう促す。
本稿では,圏論に基づく理論的枠組みを提案し,それらを一般化し記述する。
論文 参考訳(メタデータ) (2023-12-11T17:46:44Z) - Effective Structured Prompting by Meta-Learning and Representative Verbalizer [27.64413828719264]
効果的な構造化プロンプトのためのメタプロンプターを提案する。
本稿では,特徴埋め込みから直接ラベル埋め込みを構築する新しいソフトな動詞変換器(RepVerb)を提案する。
実験の結果,MetaPrompterは最近の最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-01T12:44:33Z) - Error Analysis Prompting Enables Human-Like Translation Evaluation in Large Language Models [57.80514758695275]
機械翻訳(MT)の品質を評価するために,大規模言語モデル(LLM)を用いることで,システムレベルでの最先端のパフォーマンスを実現する。
我々はtextbftexttError Analysis Prompting (EAPrompt) と呼ばれる新しいプロンプト手法を提案する。
本手法は,多次元品質指標 (MQM) とtextitproduces を用いて,システムレベルとセグメントレベルの両方で説明可能かつ信頼性の高いMT評価を行う。
論文 参考訳(メタデータ) (2023-03-24T05:05:03Z) - Self-supervised Meta-Prompt Learning with Meta-Gradient Regularization
for Few-shot Generalization [40.45470744120691]
MEta-gradient regularization for few-shot generalization (SUPMER)による自己改善メタプロンプト学習フレームワーク
本稿では,Meta-gradient regularization for few-shot generalization (SUPMER)を用いた自己改善メタプロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T05:04:21Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - MetaPrompting: Learning to Learn Better Prompts [52.914694884515534]
本稿では,メタプロンプトと呼ばれるソフトプロンプト手法を提案する。
大規模な実験は、MetaPromptingが4つの異なるデータセットに大きな改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-23T09:01:05Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。