論文の概要: UltraGen: Extremely Fine-grained Controllable Generation via Attribute Reconstruction and Global Preference Optimization
- arxiv url: http://arxiv.org/abs/2502.12375v1
- Date: Mon, 17 Feb 2025 23:28:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:03:14.423497
- Title: UltraGen: Extremely Fine-grained Controllable Generation via Attribute Reconstruction and Global Preference Optimization
- Title(参考訳): UltraGen: 属性再構成と大域的優先度最適化による極細粒制御可能生成
- Authors: Longfei Yun, Letian Peng, Jingbo Shang,
- Abstract要約: 既存のメソッドは主に3から5のような小さな属性セットにフォーカスする。
極微細制御可能ジェネレーション(EFCG)のための新しいゼロショット手法を提案する。
本研究では,制約満足度(CSR)とEFCGのテキスト品質を,バイアスを緩和し,注意の希釈を緩和することで著しく改善する。
- 参考スコア(独自算出の注目度): 33.747872934103334
- License:
- Abstract: Fine granularity is an essential requirement for controllable text generation, which has seen rapid growth with the ability of LLMs. However, existing methods focus mainly on a small set of attributes like 3 to 5, and their performance degrades significantly when the number of attributes increases to the next order of magnitude. To address this challenge, we propose a novel zero-shot approach for extremely fine-grained controllable generation (EFCG), proposing auto-reconstruction (AR) and global preference optimization (GPO). In the AR phase, we leverage LLMs to extract soft attributes (e.g., Emphasis on simplicity and minimalism in design) from raw texts, and combine them with programmatically derived hard attributes (e.g., The text should be between 300 and 400 words) to construct massive (around 45) multi-attribute requirements, which guide the fine-grained text reconstruction process under weak supervision. In the GPO phase, we apply direct preference optimization (DPO) to refine text generation under diverse attribute combinations, enabling efficient exploration of the global combination space. Additionally, we introduce an efficient attribute sampling strategy to identify and correct potentially erroneous attributes, further improving global optimization. Our framework significantly improves the constraint satisfaction rate (CSR) and text quality for EFCG by mitigating position bias and alleviating attention dilution.
- Abstract(参考訳): 微粒化は制御可能なテキスト生成に必須の要件であり、LLMの能力によって急速に成長している。
しかし、既存のメソッドは主に3から5のような小さな属性セットに焦点を合わせており、属性の数が次の桁に増加すると、そのパフォーマンスは著しく低下する。
この課題に対処するため、我々は極細粒制御可能生成(EFCG)のための新しいゼロショット手法を提案し、オートコンストラクション(AR)とグローバル優先最適化(GPO)を提案する。
AR フェーズでは LLM を利用して生のテキストからソフトな属性(例えば、単純さとデザインのミニマリズム)を抽出し、プログラム的に派生したハードな属性(例えば、テキストは 300 語から 400 語まで)と組み合わせて、大規模(約 45 語)のマルチ属性要件を構築する。
GPO フェーズでは,様々な属性の組み合わせでテキスト生成を洗練するために直接選好最適化 (DPO) を適用し,グローバルな組み合わせ空間の効率的な探索を可能にする。
さらに,誤属性を特定し,訂正するための効率的な属性サンプリング手法を導入し,グローバルな最適化をさらに改善する。
本フレームワークは,位置バイアスを緩和し,注意の希釈を緩和することにより,EFCGの制約満足度(CSR)とテキスト品質を著しく改善する。
関連論文リスト
- Towards Lightweight, Adaptive and Attribute-Aware Multi-Aspect Controllable Text Generation with Large Language Models [40.54453001537357]
マルチアスペクト制御可能なテキスト生成は、属性のテキスト生成を複数の側面から制御することを目的としている。
改良された微調整手法は、単純さと有効性のためにしばしばこの課題に使用される。
マルチアスペクト制御可能なテキスト生成のための軽量で適応的で属性対応のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-19T06:56:02Z) - Multi-Attribute Constraint Satisfaction via Language Model Rewriting [67.5778646504987]
マルチ属性制約満足度(英: Multi-Attribute Constraint Satisfaction, MACS)は、言語モデルを微調整して、複数の外部実値属性に対するユーザ指定制約を満たす手法である。
我々の研究は、NLPやバイオインフォマティクスにまたがる多様な応用に影響を及ぼす、一般化および実値多属性制御のための新しい道を開く。
論文 参考訳(メタデータ) (2024-12-26T12:36:39Z) - Effective Text Adaptation for LLM-based ASR through Soft Prompt Fine-Tuning [12.676026149146772]
大言語モデル(LLM)は自動音声認識(ASR)を改良した
このようなASRをペアのプロンプトなしでテキストのみのデータに微調整することで、ドメイン固有の知識の有効性を低下させる可能性がある。
ドメイン固有のテキスト適応を強化する2段階のソフトプロンプト微調整戦略を提案する。
論文 参考訳(メタデータ) (2024-12-09T20:22:06Z) - UniGen: A Unified Framework for Textual Dataset Generation Using Large Language Models [88.16197692794707]
UniGenは、多様で正確で高度に制御可能なデータセットを作成するように設計された包括的なフレームワークである。
データ多様性を強化するため、UniGenは属性誘導生成モジュールとグループチェック機能を備えている。
大規模な実験は、UniGenによって生成されたデータの優れた品質を示す。
論文 参考訳(メタデータ) (2024-06-27T07:56:44Z) - TextGrad: Automatic "Differentiation" via Text [32.94896315864364]
TextGradはテキストフィードバックをバックプロパゲートして、複合AIシステムの個々のコンポーネントを改善する。
さまざまなタスクに対してアウト・オブ・ボックスで動作し、ユーザはフレームワークのコンポーネントやプロンプトをチューニングすることなく、客観的な機能のみを提供する。
質問応答や分子最適化から放射線治療計画まで,様々な応用において,TextGradの有効性と汎用性を示す。
論文 参考訳(メタデータ) (2024-06-11T17:32:21Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Improving Cross-Domain Low-Resource Text Generation through LLM
Post-Editing: A Programmer-Interpreter Approach [50.400999859808984]
後編集は、大規模言語モデル(LLM)によって生成されたテキストの品質向上に有効であることが証明された。
本稿では,LLMの領域一般化能力を保持するニューラルプログラマ・解釈手法を提案する。
実験により,プログラマ・インタプリタは論理形式変換や低リソース機械翻訳において,GPT-3.5の性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-07T06:13:14Z) - Unified Low-Resource Sequence Labeling by Sample-Aware Dynamic Sparse
Finetuning [24.765911297156855]
FISH-DIPは、少数のパラメータに選択的にフォーカスする、サンプル対応のダイナミックスパース微調整戦略である。
FISH-DIPは、最大40%の性能改善を提供する低リソース設定でモデルをスムーズに最適化できることを実証した。
論文 参考訳(メタデータ) (2023-11-07T06:19:37Z) - Connecting Large Language Models with Evolutionary Algorithms Yields
Powerful Prompt Optimizers [70.18534453485849]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。