論文の概要: Syntax-Guided Diffusion Language Models with User-Integrated Personalization
- arxiv url: http://arxiv.org/abs/2510.01028v1
- Date: Wed, 01 Oct 2025 15:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.645552
- Title: Syntax-Guided Diffusion Language Models with User-Integrated Personalization
- Title(参考訳): ユーザ参加型パーソナライゼーションを用いた構文誘導拡散言語モデル
- Authors: Ruqian Zhang, Yijiao Zhang, Juan Shen, Zhongyi Zhu, Annie Qu,
- Abstract要約: 大規模な言語モデルは、人間のようなテキストを生成するために革命的な進歩を遂げてきたが、そのアウトプットは一般的なものであることが多い。
近年の拡散モデルの発展により、自己回帰パラダイムの限界を超えて言語生成を改善する新たな機会が開かれた。
テキストの品質,多様性,制御性を向上させるために,構造的監督とパーソナライズドコンディショニングを統合した構文誘導拡散言語モデルを提案する。
- 参考スコア(独自算出の注目度): 1.202131801903952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models have made revolutionary progress in generating human-like text, yet their outputs often tend to be generic, exhibiting insufficient structural diversity, which limits personalized expression. Recent advances in diffusion models have opened new opportunities for improving language generation beyond the limitations of autoregressive paradigms. In this work, we propose a syntax-guided diffusion language model that integrates structural supervision and personalized conditioning to enhance text quality, diversity, and controllability. We introduce a cascaded framework that generates syntactic guidance before conditional text generation, and further generalize it to a novel noncascaded architecture for better alignment between structure and content. By incorporating syntactic information in the generating process, the proposed model better captures the lexical and structural characteristics of stylistic sentence construction. To enable fine-grained personalization, we develop a shared representation mechanism that facilitates information integration across users, supporting both faithful stylistic generation and generalizable zero-shot inference. Extensive experiments on multiple tasks demonstrate the superiority of our approach in fluency, diversity, and stylistic fidelity. Further qualitative analyses highlight its interpretability and flexibility in learning personalized patterns.
- Abstract(参考訳): 大規模な言語モデルは、人間のようなテキストを生成するために革命的な進歩を遂げてきたが、その出力は一般的な傾向があり、構造的な多様性が不十分であり、パーソナライズされた表現を制限する。
近年の拡散モデルの発展により、自己回帰パラダイムの限界を超えて言語生成を改善する新たな機会が開かれた。
本研究では,テキストの品質,多様性,制御性を向上させるために,構造的監督とパーソナライズされた条件付けを統合した構文誘導拡散言語モデルを提案する。
条件付きテキスト生成の前に統語指導を生成するカスケードフレームワークを導入し、構造と内容の整合性を向上する新しい非カスケードアーキテクチャに一般化する。
生成過程に構文情報を組み込むことで,文構成の語彙的・構造的特性をよりよく把握する。
詳細なパーソナライゼーションを実現するために,ユーザ間の情報統合を容易にする共有表現機構を開発し,忠実なスタイリスティック生成と一般化可能なゼロショット推論の両方をサポートする。
複数のタスクに対する大規模な実験は、我々のアプローチが流線型性、多様性、スタイル的忠実性において優れていることを示す。
さらに質的な分析は、パーソナライズされたパターンの学習における解釈可能性と柔軟性を強調している。
関連論文リスト
- Mogao: An Omni Foundation Model for Interleaved Multi-Modal Generation [54.588082888166504]
我々は、因果アプローチを通じてインターリーブされたマルチモーダル生成を可能にする統一的なフレームワークであるMogaoを提案する。
Mogooは、Deep-fusion設計、デュアルビジョンエンコーダ、インターリーブされた回転位置埋め込み、マルチモーダル分類器フリーガイダンスなど、アーキテクチャ設計における重要な技術的改善のセットを統合している。
実験により,モガオはマルチモーダル理解とテキスト・ツー・イメージ生成において最先端の性能を発揮するとともに,高品質でコヒーレントなインターリーブ・アウトプットの創出にも優れていることが示された。
論文 参考訳(メタデータ) (2025-05-08T17:58:57Z) - Align to Structure: Aligning Large Language Models with Structural Information [26.960069076925386]
本研究では,大規模言語モデルと人間のような談話構造を整合させて長文生成を向上する構造アライメントを提案する。
提案手法では,人間の文章に対する言論的特質に基づいて,詳細なトークンレベルの報酬を割り当てる。
論文 参考訳(メタデータ) (2025-04-04T17:40:04Z) - ARTIST: Improving the Generation of Text-rich Images with Disentangled Diffusion Models and Large Language Models [52.23899502520261]
本稿では,テキスト構造の学習に特化するために,専用のテキスト拡散モデルを組み込んだARTISTという新しいフレームワークを紹介する。
我々は、事前訓練されたテキスト構造モデルからテキスト構造情報を同化できるように、視覚拡散モデルを微調整する。
この歪んだアーキテクチャ設計とトレーニング戦略は、テキストリッチな画像生成のための拡散モデルのテキストレンダリング能力を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-17T19:31:24Z) - Annotating FrameNet via Structure-Conditioned Language Generation [15.877232416259805]
本稿では、過剰な生成とフィルタのアプローチに従って、新しいフレーム文の注釈付き文を生成するフレームワークを提案する。
以上の結果から,リッチで明示的な意味情報に対する条件付けは,人間の受容度が高い世代を生み出す傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-07T11:01:15Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - PatternGPT :A Pattern-Driven Framework for Large Language Model Text
Generation [1.7259824817932292]
本稿では,大規模言語モデルのためのパターン駆動型テキスト生成フレームワークであるPatternGPTを提案する。
このフレームワークは、大規模言語モデルの抽出機能を利用して、リッチで多様な構造化および形式化されたパターンを生成する。
判断基準や最適化アルゴリズムなどの外部知識は、高品質なパターンの探索に使用される。
論文 参考訳(メタデータ) (2023-07-02T04:32:41Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Incorporating Stylistic Lexical Preferences in Generative Language
Models [10.62343151429147]
本稿では,著者の連続的な多次元語彙的嗜好を生成言語モデルに組み込むことにより,特定の著者属性を誘導する手法を提案する。
実験により,提案手法は,対象とする著者の語彙的スタイルと顕著に一致したテキストを生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-22T09:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。