論文の概要: PG-CE: A Progressive Generation Dataset with Constraint Enhancement for Controllable Text Generation
- arxiv url: http://arxiv.org/abs/2509.17669v1
- Date: Mon, 22 Sep 2025 12:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.364449
- Title: PG-CE: A Progressive Generation Dataset with Constraint Enhancement for Controllable Text Generation
- Title(参考訳): PG-CE:制御可能なテキスト生成のための制約付きプログレッシブ・ジェネレーション・データセット
- Authors: Yan Zhuang, Yuan Sun,
- Abstract要約: 制御可能なテキスト生成(CTG)は,システムの信頼性とユーザエクスペリエンスを向上させる重要な技術となっている。
本稿では,CTGタスクをタイプ予測,制約構成,ガイド生成の3段階に分割するPG-CE手法を提案する。
- 参考スコア(独自算出の注目度): 17.481794597546322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of Large Language Models (LLMs), Controllable Text Generation (CTG) has become a critical technology for enhancing system reliability and user experience. Addressing the limitations of traditional methods, this paper proposes the PG-CE (Progressive Generation with Constraint Enhancement) approach, which decomposes CTG tasks into three steps: type prediction, constraint construction, and guided generation. This method employs constraint generation models to dynamically build multi-dimensional constraints including tone, expression style, and thematic focus to guide output. Experiments demonstrate that PG-CE significantly improves generation quality across multiple scenarios while maintaining text controllability, thematic relevance, and response practicality. The research developed a dataset containing 90,000 constraint-text pairs (with an 8:2 ratio between daily and other topics), effectively reflecting real-world application requirements.
- Abstract(参考訳): LLM(Large Language Models)の急速な発展に伴い、制御可能なテキスト生成(CTG)はシステムの信頼性とユーザエクスペリエンスを向上させる重要な技術となっている。
本稿では,従来の手法の限界に対処し,CTGタスクを3段階に分割するPG-CE(Progressive Generation with Constraint Enhancement)アプローチを提案する。
この手法は制約生成モデルを用いて、トーン、表現スタイル、テーマフォーカスなどの多次元制約を動的に構築し、出力を誘導する。
実験により,PG-CEはテキスト制御性,主題的妥当性,応答実用性を維持しつつ,複数のシナリオにおける生成品質を著しく向上することが示された。
研究は90,000の制約テキストペア(毎日と他のトピックの8:2の比率)を含むデータセットを開発し、現実世界のアプリケーション要件を効果的に反映した。
関連論文リスト
- AgentCTG: Harnessing Multi-Agent Collaboration for Fine-Grained Precise Control in Text Generation [10.208001921870709]
制御されたテキスト生成(CTG)は、特に生成に対するきめ細かい条件制御を達成する上で、多くの課題に直面し続けている。
本稿では,テキスト生成の高精度かつ複雑な制御を目的とした,新規でスケーラブルなフレームワークであるAgentCTGを紹介する。
AgentCTGは、複数の公開データセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-09-17T04:07:22Z) - Personalized Text Generation with Contrastive Activation Steering [63.60368120937822]
そこで本研究では,ベクタとしてパーソナライズされた書体スタイルを分離し,表現する学習自由フレームワークを提案する。
本フレームワークは,PEFT法よりも1700倍のストレージ要求を削減しつつ,パーソナライズ生成において,8%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2025-03-07T08:07:15Z) - A Combined Encoder and Transformer Approach for Coherent and High-Quality Text Generation [5.930799903736776]
本研究は,BERTのセマンティック解釈強度とGPT-4の生成能力を組み合わせた新しいテキスト生成モデルを提案する。
このモデルはセマンティックディープを強化し、スムーズな人間のようなテキストフローを維持し、以前のモデルに見られる制限を克服する。
論文 参考訳(メタデータ) (2024-11-19T01:41:56Z) - Controllable Text Generation for Large Language Models: A Survey [27.110528099257156]
本稿では,大規模言語モデルにおける制御可能なテキスト生成の最近の進歩を体系的にレビューする。
我々はCTGタスクをコンテンツ制御と制御の2つの主要なタイプに分類する。
現在の研究における重要な課題には、流用率の低減や実用性といった課題に対処する。
論文 参考訳(メタデータ) (2024-08-22T17:59:04Z) - Tractable Control for Autoregressive Language Generation [82.79160918147852]
本稿では,自動回帰テキスト生成モデルに語彙制約を課すために,トラクタブル確率モデル(TPM)を提案する。
本稿では,GeLaToが制約付きテキスト生成のための挑戦的ベンチマークにおいて,最先端のパフォーマンスを実現することを示す。
我々の研究は、大きな言語モデルを制御するための新しい道を開き、さらに表現力のあるTPMの開発を動機付けます。
論文 参考訳(メタデータ) (2023-04-15T00:19:44Z) - PLANET: Dynamic Content Planning in Autoregressive Transformers for
Long-form Text Generation [47.97523895218194]
本稿では,自己回帰型自己認識機構を利用してコンテンツ計画と表面実現を動的に行う新しい生成フレームワークを提案する。
本フレームワークは,単語のバッグをベースとした文レベルのセマンティックプランを維持するために,トランスフォーマーデコーダを潜在表現で強化する。
論文 参考訳(メタデータ) (2022-03-17T05:52:35Z) - COLD Decoding: Energy-based Constrained Text Generation with Langevin
Dynamics [69.8062252611486]
コールドデコーディングは、既製の左から右の言語モデルに直接適用可能なフレキシブルなフレームワークである。
制約付き生成タスクの実験は、自動評価と人的評価の両方の観点から、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2022-02-23T18:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。