論文の概要: OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning
- arxiv url: http://arxiv.org/abs/2305.14973v2
- Date: Thu, 14 Dec 2023 16:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 04:55:31.413844
- Title: OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning
- Title(参考訳): OverPrompt: 効率的なインコンテキスト学習によるチャットGPTの強化
- Authors: Jiazheng Li, Runcong Zhao, Yongxin Yang, Yulan He, Lin Gui
- Abstract要約: 複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
- 参考スコア(独自算出の注目度): 49.38867353135258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The remarkable performance of pre-trained large language models has
revolutionised various natural language processing applications. Due to huge
parametersizes and extensive running costs, companies or organisations tend to
transfer the models to the target task by zero-shot prompting techniques.
However, the prohibitive costs of tokens and time have hindered their adoption
in applications. We propose OverPrompt, leveraging the in-context learning
capability of LLMs to handle multiple task inputs, thereby reducing token and
time costs. This approach could potentially improve task performance during API
queries due to better conditional distribution mapping. Evaluated across
diverse classification datasets, our experiments show that OverPrompt can
achieve cost-efficient zero-shot classification without causing significant
detriment to task performance, and in some cases, even improving it. An
ablation study conducted on various LLMs, along with an investigation into the
robustness of our prompting strategy to different input ordering, offers
valuable insights into the broader applicability of our method across diverse
tasks. These findings also suggest a more seamless integration of our method
with LLMs through an API.
- Abstract(参考訳): 事前訓練された大規模言語モデルの顕著な性能は、様々な自然言語処理アプリケーションに革命をもたらした。
巨大なパラメータ化と広範な実行コストのため、企業や組織はモデルをゼロショットプロンプト技術でターゲットタスクに転送する傾向があります。
しかし、トークンと時間の禁止コストは、アプリケーションへの採用を妨げている。
本稿では,複数のタスク入力を処理するために,llmsのコンテキスト内学習機能を活用し,トークンと時間コストを削減するoverpromptを提案する。
このアプローチは、条件付き分散マッピングの改善により、APIクエリ中のタスクパフォーマンスを改善する可能性がある。
多様な分類データセットから評価したところ、OverPromptはタスク性能に大きな損なうことなくコスト効率の良いゼロショット分類を達成でき、場合によってはその改善も可能であることがわかった。
様々なLSMで行ったアブレーション研究は、異なる入力順序付けへの促す戦略の堅牢性の調査とともに、様々なタスクにまたがる手法の適用性に関する貴重な洞察を提供する。
これらの結果から,APIによるLCMとメソッドのシームレスな統合が示唆された。
関連論文リスト
- QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Token-Efficient Leverage Learning in Large Language Models [13.830828529873056]
大規模言語モデル(LLM)は様々なタスクで優れていますが、高リソースのシナリオではより良く機能しています。
データ不足と特定のタスクにLLMを適用することの難しさは、この課題を複雑にしている。
本稿では,Token-Efficient Leverage Learning (TELL) と呼ばれる方法論の合理化実装を提案する。
論文 参考訳(メタデータ) (2024-04-01T04:39:44Z) - A Practical Survey on Zero-shot Prompt Design for In-context Learning [0.0]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクを大幅に改善した。
本稿では,異なる種類のプロンプトに着目した,コンテキスト内学習手法の総合的なレビューを行う。
本稿では,手動設計や最適化アルゴリズム,評価手法など,設計を促すための様々なアプローチについて検討する。
論文 参考訳(メタデータ) (2023-09-22T23:00:34Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Making Pre-trained Language Models End-to-end Few-shot Learners with
Contrastive Prompt Tuning [41.15017636192417]
CP-Tuning(CP-Tuning)は、言語モデルのための最初のエンドツーエンドのPrompt Tuningフレームワークである。
完全にトレーニング可能なプロンプトパラメータを持つタスク不変の連続プロンプトエンコーディング技術と統合されている。
IRシステムや異なるPLMで使用される様々な言語理解タスクの実験は、CP-Tuningが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-04-01T02:24:24Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。