論文の概要: Meta Prompting for AGI Systems
- arxiv url: http://arxiv.org/abs/2311.11482v1
- Date: Mon, 20 Nov 2023 01:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 20:04:48.722100
- Title: Meta Prompting for AGI Systems
- Title(参考訳): AGIシステムのためのメタプロンプティング
- Authors: Yifan Zhang
- Abstract要約: Meta Promptingは,大規模言語モデル(LLM)やマルチモーダル基盤モデル,AIシステムが問題解決とデータ解釈にアプローチする方法に革命をもたらす新技術である。
この探索の鍵は、メタ・プロンプティングを複雑な推論の領域に拡張することである。
このテクニックが複雑な問題を管理可能なサブプロブレムに分解し、ステップバイステップで詳細な問題解決アプローチを容易にします。
- 参考スコア(独自算出の注目度): 5.980612601840882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an in-depth exploration of Meta Prompting, a novel
technique that revolutionizes the way large language models (LLMs), multi-modal
foundation models, and AI systems approach problem-solving and data
interpretation. Meta Prompting, rooted in type theory and category theory,
prioritizes the structure and syntax of information, providing a unique
framework that transcends traditional content-focused methods. We delve into
the formal definitions of Meta Prompting, contrasting it with Few-Shot
Prompting, and highlight its applicability and superiority in various AI
applications.
Key to this exploration is the expansion of Meta Prompting into the realm of
complex reasoning. Here, we demonstrate how this technique adeptly breaks down
intricate problems into manageable sub-problems, facilitating a step-by-step,
detailed approach to problem-solving. This method proves especially
advantageous in terms of token efficiency and offering a fair comparison in
problem-solving scenarios, standing out against few-shot example approaches.
Furthermore, the paper breaks new ground by extending Meta Prompting into
multi-modal foundation model settings. This extension addresses the integration
of diverse data types, such as images, audio, and video, within the structured
framework of Meta Prompting, highlighting both the challenges and the vast
potential of this approach in handling complex, multi-faceted data (The code is
available at https://github.com/meta-prompting/meta-prompting).
- Abstract(参考訳): 本稿では,大規模言語モデル (LLM) やマルチモーダル基礎モデル,AIシステムが問題解決とデータ解釈にアプローチする手法であるメタ・プロンプトの詳細な探索について述べる。
型理論とカテゴリ理論に根ざしたメタプロンプトは、情報の構造と構文を優先し、従来のコンテンツ中心の手法を超越するユニークなフレームワークを提供する。
私たちはMeta Promptingの公式定義を掘り下げ、Few-Shot Promptingと対比し、さまざまなAIアプリケーションへの適用性と優位性を強調します。
この探求の鍵は、複雑な推論の領域へのメタプロンプトの拡張である。
本稿では,この手法が複雑に絡み合った問題を管理可能な部分問題に分解し,問題解決へのステップバイステップの詳細なアプローチを促進する方法を示す。
この手法はトークン効率の点で特に有利であることが証明され、問題解決シナリオにおける公平な比較を提供する。
さらに,Meta Promptingをマルチモーダル基礎モデル設定に拡張することで,新たな基盤を壊す。
この拡張は、画像、オーディオ、ビデオといった多様なデータ型をメタプロンプトの構造化フレームワークに統合し、複雑で多面的なデータを扱う際のこのアプローチの課題と大きな可能性の両方を強調している(コードはhttps://github.com/meta-prompting/meta-promptingで利用可能)。
関連論文リスト
- Prompt Learning via Meta-Regularization [18.518214936430816]
本稿では,プロンプトメタ規則化(ProMetaR)を提案する。
ProMetaRは、正規化器とソフトプロンプトの両方をメタラーニングし、下流のタスクからタスク固有の知識と視覚言語モデルからタスクに依存しない一般的な知識を利用する。
論文 参考訳(メタデータ) (2024-04-01T01:42:23Z) - On Meta-Prompting [18.949285430843695]
これらのアプローチをメタプロンプトと呼ぶか、あるいはプロンプトを得るよう促す。
本稿では,圏論に基づく理論的枠組みを提案し,それらを一般化し記述する。
論文 参考訳(メタデータ) (2023-12-11T17:46:44Z) - Effective Structured Prompting by Meta-Learning and Representative Verbalizer [27.64413828719264]
効果的な構造化プロンプトのためのメタプロンプターを提案する。
本稿では,特徴埋め込みから直接ラベル埋め込みを構築する新しいソフトな動詞変換器(RepVerb)を提案する。
実験の結果,MetaPrompterは最近の最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-01T12:44:33Z) - Error Analysis Prompting Enables Human-Like Translation Evaluation in Large Language Models [57.80514758695275]
機械翻訳(MT)の品質を評価するために,大規模言語モデル(LLM)を用いることで,システムレベルでの最先端のパフォーマンスを実現する。
我々はtextbftexttError Analysis Prompting (EAPrompt) と呼ばれる新しいプロンプト手法を提案する。
本手法は,多次元品質指標 (MQM) とtextitproduces を用いて,システムレベルとセグメントレベルの両方で説明可能かつ信頼性の高いMT評価を行う。
論文 参考訳(メタデータ) (2023-03-24T05:05:03Z) - Self-supervised Meta-Prompt Learning with Meta-Gradient Regularization
for Few-shot Generalization [40.45470744120691]
MEta-gradient regularization for few-shot generalization (SUPMER)による自己改善メタプロンプト学習フレームワーク
本稿では,Meta-gradient regularization for few-shot generalization (SUPMER)を用いた自己改善メタプロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T05:04:21Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - MetaPrompting: Learning to Learn Better Prompts [52.914694884515534]
本稿では,メタプロンプトと呼ばれるソフトプロンプト手法を提案する。
大規模な実験は、MetaPromptingが4つの異なるデータセットに大きな改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-23T09:01:05Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。