論文の概要: PAGE: Prompt Augmentation for text Generation Enhancement
- arxiv url: http://arxiv.org/abs/2510.13880v1
- Date: Mon, 13 Oct 2025 21:31:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.508021
- Title: PAGE: Prompt Augmentation for text Generation Enhancement
- Title(参考訳): PAGE: テキスト生成拡張のためのプロンプト拡張
- Authors: Mauro Jose Pacchiotti, Luciana Ballejos, Mariel Ale,
- Abstract要約: PAGE(Prompt Augmentation for text Generation Enhancement)は、自然言語生成モデルを支援するために設計されたフレームワークである。
補助的な生成モデルを必要としない、代わりに、異なるタスクに容易に適応できる、よりシンプルでモジュール化されたアーキテクチャを提案する。
本稿では,その提案とコンポーネント,アーキテクチャについて述べるとともに,要件工学の領域における概念実証について報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, natural language generative models have shown outstanding performance in text generation tasks. However, when facing specific tasks or particular requirements, they may exhibit poor performance or require adjustments that demand large amounts of additional data. This work introduces PAGE (Prompt Augmentation for text Generation Enhancement), a framework designed to assist these models through the use of simple auxiliary modules. These modules, lightweight models such as classifiers or extractors, provide inferences from the input text. The output of these auxiliaries is then used to construct an enriched input that improves the quality and controllability of the generation. Unlike other generation-assistance approaches, PAGE does not require auxiliary generative models; instead, it proposes a simpler, modular architecture that is easy to adapt to different tasks. This paper presents the proposal, its components and architecture, and reports a proof of concept in the domain of requirements engineering, where an auxiliary module with a classifier is used to improve the quality of software requirements generation.
- Abstract(参考訳): 近年,テキスト生成タスクにおいて,自然言語生成モデルの性能が顕著に向上している。
しかし、特定のタスクや特定の要件に直面すると、パフォーマンスが低下したり、大量のデータを必要とする調整が必要になります。
PAGE(Prompt Augmentation for text Generation Enhancement)は、単純な補助モジュールを使用してこれらのモデルを支援するために設計されたフレームワークである。
これらのモジュールは、分類器や抽出器などの軽量モデルであり、入力テキストからの推論を提供する。
これらの補助器の出力は、生成の質と制御性を改善するリッチな入力を構築するために使用される。
他の世代支援アプローチとは異なり、PAGEは補助的な生成モデルを必要としない。
本稿では,要求工学の領域において,ソフトウェア要件生成の質向上のために,分類器付き補助モジュールを用いた概念実証を行う。
関連論文リスト
- Oreo: A Plug-in Context Reconstructor to Enhance Retrieval-Augmented Generation [28.568010424711563]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) の機能強化を目的としている。
生成に使用する前に検索したチャンクを洗練するために設計された,コンパクトで効率的な,プラグ可能なモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-18T16:38:39Z) - SPAgent: Adaptive Task Decomposition and Model Selection for General Video Generation and Editing [50.098005973600024]
セマンティック・プランニング・エージェント(SPAgent)を利用した新しい映像生成・編集システムを提案する。
SPAgentは、多様なユーザ意図と既存の生成モデルの有効利用の間のギャップを埋める。
実験結果は、SPAgentが効果的にモデルをコーディネートしてビデオの生成や編集を行うことを示した。
論文 参考訳(メタデータ) (2024-11-28T08:07:32Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - Towards an On-device Agent for Text Rewriting [22.05671256490942]
モバイル中心のテキスト書き換えモデルを構築するための新しい命令チューニング手法を提案する。
我々の戦略は、人間のラベルを付けずに高品質なトレーニングデータを生成することができる。
我々は、自然言語によるメッセージのテキスト書き直しに焦点を当てたベンチマークであるMessageRewriteEvalを紹介した。
論文 参考訳(メタデータ) (2023-08-22T22:18:38Z) - Enhancing Retrieval-Augmented Large Language Models with Iterative
Retrieval-Generation Synergy [164.83371924650294]
検索と生成を反復的に同期させるIter-RetGenと呼ばれる手法により,高い性能が得られることを示す。
モデル出力は、タスクを完了するために必要なものを示し、より関連する知識を取得するための情報的コンテキストを提供する。
Iter-RetGenプロセスは、すべての知識を全体として取得し、構造的な制約なしに生成時の柔軟性をほとんど保持します。
論文 参考訳(メタデータ) (2023-05-24T16:17:36Z) - GIT: A Generative Image-to-text Transformer for Vision and Language [138.91581326369837]
我々は、画像/映像キャプションや質問応答などの視覚言語タスクを統合するために、生成画像からテキストへ変換するGITを訓練する。
われわれのモデルはTextCaps(CIDErで138.2対125.5)で初めて人間のパフォーマンスを上回った。
論文 参考訳(メタデータ) (2022-05-27T17:03:38Z) - GAP: A Graph-aware Language Model Framework for Knowledge Graph-to-Text
Generation [3.593955557310285]
KG-to-text生成の最近の改善は、微調整タスクの性能を高めるために設計された補助的な事前訓練タスクによるものである。
ここでは、既存の事前学習言語モデルにグラフ認識要素を融合させることで、最先端のモデルより優れ、追加の事前学習タスクによって課されるギャップを埋めることができることを示す。
論文 参考訳(メタデータ) (2022-04-13T23:53:37Z) - Exploring Controllable Text Generation Techniques [133.05105352571715]
5つのモジュールに分類することで、生成プロセスのパイプラインの新しいスキーマを提供する。
本稿では,これらのモジュールの変調を行うための様々な手法の概要を紹介する。
本稿では,モジュールの組み合わせに基づいて新しいアーキテクチャを開発する方法について述べる。
論文 参考訳(メタデータ) (2020-05-04T20:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。