論文の概要: Prompt-SAW: Leveraging Relation-Aware Graphs for Textual Prompt Compression
- arxiv url: http://arxiv.org/abs/2404.00489v2
- Date: Thu, 17 Oct 2024 15:20:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:17:35.502114
- Title: Prompt-SAW: Leveraging Relation-Aware Graphs for Textual Prompt Compression
- Title(参考訳): Prompt-SAW: テキストプロンプト圧縮のための関係認識グラフの活用
- Authors: Muhammad Asif Ali, Zhengping Li, Shu Yang, Keyuan Cheng, Yang Cao, Tianhao Huang, Guimin Hu, Weimin Lyu, Lijie Hu, Lu Yu, Di Wang,
- Abstract要約: 既存の圧縮プロンプトの圧縮の試みは、圧縮されたプロンプトの可読性/解釈性の観点から、サブスタンダードな結果をもたらす。
PromptSAW: Prompt compresSion via Relation AWare graphs, a effective strategy for prompt compression over task-agnostic and task-aware prompts。
GSM8K-aug,すなわちタスクに依存しないプロンプトのための既存のGSM8Kベンチマークの拡張版を提案し、総合的な評価プラットフォームを提供する。
- 参考スコア(独自算出の注目度): 14.028851291935625
- License:
- Abstract: Large Language Models (LLMs) have shown exceptional abilities for multiple different natural language processing tasks. While prompting is a crucial tool for LLM inference, we observe that there is a significant cost associated with exceedingly lengthy prompts. Existing attempts to compress lengthy prompts lead to substandard results in terms of readability/interpretability of the compressed prompt, with a detrimental impact on prompt utility. To address this, we propose PromptSAW: Prompt compresSion via Relation AWare graphs, an effective strategy for prompt compression over task-agnostic and task-aware prompts. Prompt-SAW uses the prompt's textual information to build a graph and later extracts key information elements in the graph to come up with the compressed prompt. We also propose GSM8K-aug, i.e., an extended version of the existing GSM8K benchmark for task-agnostic prompts in order to provide a comprehensive evaluation platform. Experimental evaluation using benchmark datasets shows that prompts compressed by Prompt-SAW are not only better in terms of readability, but they also outperform the best-performing baseline models by up to 10.1 and 77.1, respectively, for task-agnostic and task-aware settings while compressing the original prompt text by 34.9 and 56.7.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複数の異なる自然言語処理タスクに対して例外的な能力を示す。
プロンプトはLLM推論において重要なツールであるが, 非常に長いプロンプトが伴う大きなコストが存在することが観察された。
既存の圧縮プロンプトの圧縮の試みは、圧縮されたプロンプトの可読性/解釈性の観点から、サブスタンダードな結果をもたらす。
PromptSAW: Prompt compresSion via Relation AWare graphs, an effective strategy for prompt compression over task-agnostic and task-aware prompts。
Prompt-SAWはプロンプトのテキスト情報を使ってグラフを構築し、その後、グラフ内の重要な情報要素を抽出して圧縮されたプロンプトを導き出す。
GSM8K-aug,すなわちタスクに依存しないプロンプトのための既存のGSM8Kベンチマークの拡張版を提案し、総合的な評価プラットフォームを提供する。
Prompt-SAWによって圧縮されたプロンプトは可読性において優れているだけでなく、タスクに依存しない設定やタスク認識設定において、それぞれ10.1と77.1で最高のパフォーマンスのベースラインモデルより優れており、元のプロンプトテキストを34.9と56.7で圧縮している。
関連論文リスト
- Style-Compress: An LLM-Based Prompt Compression Framework Considering Task-Specific Styles [49.65811277223873]
Style-Compressは、より小さな言語モデルを適用して、新たなタスクでより大きなモデルのプロンプトを、追加のトレーニングなしで圧縮する軽量フレームワークである。
提案手法は,実効圧縮プロンプトを,スタイルのバリエーションやコンテキスト内学習を通じて,タスク固有の実演として反復的に生成し,選択する。
Style-Compressは、オリジナルのプロンプト再構成、テキスト要約、マルチホップQA、CoT推論の4つのタスクで2つのベースライン圧縮モデルを上回っている。
論文 参考訳(メタデータ) (2024-10-17T21:35:49Z) - Promptriever: Instruction-Trained Retrievers Can Be Prompted Like Language Models [54.272894325370956]
本稿では,LMのように誘導できる最初の検索モデルであるPromptrieverを紹介する。
Promptrieverは、標準的な検索タスクで高いパフォーマンスを達成し、命令に従う。
論文 参考訳(メタデータ) (2024-09-17T12:42:55Z) - Conversational Prompt Engineering [14.614531952444013]
ユーザが特定のタスクに対してパーソナライズされたプロンプトを作成するのを支援する,ユーザフレンドリーなツールであるConversational Prompt Engineering (CPE)を提案する。
CPEはチャットモデルを使ってユーザと短時間の対話を行い、アウトプットの好みを明確にし、それらをプロンプトに統合する。
要約タスクのユーザスタディは、パーソナライズされたハイパフォーマンスなプロンプトを作成する際のCPEの価値を示す。
論文 参考訳(メタデータ) (2024-08-08T16:18:39Z) - LLMLingua-2: Data Distillation for Efficient and Faithful Task-Agnostic Prompt Compression [43.048684907893104]
本稿では, タスク非依存のプロンプト圧縮に着目し, 一般化性と効率性の向上を図る。
我々は,プロンプト圧縮をトークン分類問題として定式化し,圧縮されたプロンプトが元のプロンプトに忠実であることを保証する。
提案手法は, XLM-RoBERTa-large や mBERT などの小型モデルを用いて圧縮目標を明示的に学習することにより,低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-03-19T17:59:56Z) - Prompt Space Optimizing Few-shot Reasoning Success with Large Language Models [7.453926835095568]
プロンプトエンジニアリングにより、算術的推論、質問応答、要約、関係抽出、機械翻訳、感情分析などの様々なタスクにおいて、大きな言語モデル(LLM)が優れている。
現在のアプローチでは、最適なプロンプトを決定するための厳密な数学的解決策が欠如している。
提案手法では,テキスト埋め込みを用いて行列分解による基底ベクトルを取得し,すべてのプロンプトを表す空間を構築する。
論文 参考訳(メタデータ) (2023-06-06T15:43:16Z) - Effective Structured Prompting by Meta-Learning and Representative Verbalizer [27.64413828719264]
効果的な構造化プロンプトのためのメタプロンプターを提案する。
本稿では,特徴埋め込みから直接ラベル埋め込みを構築する新しいソフトな動詞変換器(RepVerb)を提案する。
実験の結果,MetaPrompterは最近の最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-01T12:44:33Z) - Toward Human Readable Prompt Tuning: Kubrick's The Shining is a good
movie, and a good prompt too? [84.91689960190054]
大規模言語モデルは、自然言語のプロンプトが与えられた場合、ゼロショットで新しいタスクを実行することができる。
特にプロンプトが自然言語である場合、どの要因がプロンプトを効果的にするかは明らかにされていない。
論文 参考訳(メタデータ) (2022-12-20T18:47:13Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z) - Efficiently Enhancing Zero-Shot Performance of Instruction Following
Model via Retrieval of Soft Prompt [56.22456716092954]
ソフトプロンプトの検索は、ゼロショットタスクの一般化において、ハードプロンプトを効率的に支援することができる。
我々は、プロンプトチューニングを通じて各プロンプトに対するソフトプロンプト埋め込みをトレーニングし、プロンプト埋め込みにマップされたトレーニングインスタンスのサンプルを格納し、推論中にクエリインスタンスに最も近いトレーニングインスタンスの対応するプロンプト埋め込みを検索する。
0.007%の追加パラメータしか加えていないが、ソフトプロンプトの検索は、未確認タスクにおけるT0のパフォーマンスを11つのデータセットのうち10で上回り、BIG-benchベンチマークにおけるT0の平均精度を2.39%向上させる。
論文 参考訳(メタデータ) (2022-10-06T16:26:03Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。