論文の概要: Chain-of-Generation: Progressive Latent Diffusion for Text-Guided Molecular Design
- arxiv url: http://arxiv.org/abs/2511.11894v1
- Date: Fri, 14 Nov 2025 21:54:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.364627
- Title: Chain-of-Generation: Progressive Latent Diffusion for Text-Guided Molecular Design
- Title(参考訳): チェーン・オブ・ジェネレーション: テキストガイド分子設計のための進行的潜在拡散
- Authors: Lingxiao Li, Haobo Zhang, Bin Chen, Jiayu Zhou,
- Abstract要約: 生成した部品の解釈性が劣るなど,ワンショットコンディショニング生成の3つの課題について論じる。
トレーニング不要な多段階遅延拡散フレームワークであるChain-of-Generation (CoG)を提案する。
CoGは各プロンプトをカリキュラム順のセマンティックセグメントに分解し、段階的に中間目標として組み込む。
- 参考スコア(独自算出の注目度): 37.81281530740739
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-conditioned molecular generation aims to translate natural-language descriptions into chemical structures, enabling scientists to specify functional groups, scaffolds, and physicochemical constraints without handcrafted rules. Diffusion-based models, particularly latent diffusion models (LDMs), have recently shown promise by performing stochastic search in a continuous latent space that compactly captures molecular semantics. Yet existing methods rely on one-shot conditioning, where the entire prompt is encoded once and applied throughout diffusion, making it hard to satisfy all the requirements in the prompt. We discuss three outstanding challenges of one-shot conditioning generation, including the poor interpretability of the generated components, the failure to generate all substructures, and the overambition in considering all requirements simultaneously. We then propose three principles to address those challenges, motivated by which we propose Chain-of-Generation (CoG), a training-free multi-stage latent diffusion framework. CoG decomposes each prompt into curriculum-ordered semantic segments and progressively incorporates them as intermediate goals, guiding the denoising trajectory toward molecules that satisfy increasingly rich linguistic constraints. To reinforce semantic guidance, we further introduce a post-alignment learning phase that strengthens the correspondence between textual and molecular latent spaces. Extensive experiments on benchmark and real-world tasks demonstrate that CoG yields higher semantic alignment, diversity, and controllability than one-shot baselines, producing molecules that more faithfully reflect complex, compositional prompts while offering transparent insight into the generation process.
- Abstract(参考訳): テキスト条件付き分子生成は、自然言語による記述を化学構造に変換することを目的としており、科学者は手作りの規則なしで機能グループ、足場、物理化学的制約を指定できる。
拡散に基づくモデル、特に潜伏拡散モデル(LDM)は、分子のセマンティクスをコンパクトにキャプチャする連続潜伏空間において確率探索を行うことによって、最近約束されている。
しかし、既存のメソッドはワンショット条件付けに依存しており、プロンプト全体が一度エンコードされ、拡散全体に適用されるため、プロンプトのすべての要件を満たすことは困難である。
本稿では, 単発コンディショニング生成における3つの課題について論じる。例えば, 生成した部品の解釈性が悪いこと, 全てのサブ構造を生成できないこと, 同時に全ての要件を考える際の過度さなどである。
次に、これらの課題に対処するための3つの原則を提案し、トレーニング不要な多段階潜在拡散フレームワークであるChain-of-Generation(CoG)を提案する。
CoGは、各プロンプトをカリキュラム順のセマンティックセグメントに分解し、それらを中間目標として徐々に組み入れ、より豊かな言語的制約を満たす分子への認知軌道を導く。
セマンティックガイダンスを強化するために,テキスト空間と分子潜在空間の対応性を高めるポストアライメント学習フェーズを導入する。
ベンチマークや実世界のタスクに関する大規模な実験では、CoGは1ショットのベースラインよりも意味的アライメント、多様性、制御性が高く、複雑な構成的プロンプトを忠実に反映し、生成プロセスに透過的な洞察を与える分子を生み出している。
関連論文リスト
- RTMol: Rethinking Molecule-text Alignment in a Round-trip View [4.597922051722059]
分子キャプションとテキストからSMILES生成を自己教師付きラウンドトリップ学習により統合する双方向アライメントフレームワークであるRTMolを提案する。
実験により、RTMolは様々なLLMに対して、双方向アライメント性能を最大47%向上させることが示された。
論文 参考訳(メタデータ) (2025-11-15T09:55:55Z) - Lost in Tokenization: Context as the Key to Unlocking Biomolecular Understanding in Scientific LLMs [78.18336140706471]
Sci-LLMは、生物発見を加速するための有望なフロンティアとして登場した。
現在の戦略では生の生体分子配列を処理する際にSci-LLMの推論能力を制限する。
より効果的な戦略は、Sci-LLMに高レベルな構造化コンテキストを提供することである。
論文 参考訳(メタデータ) (2025-10-27T09:03:21Z) - Compressed and Smooth Latent Space for Text Diffusion Modeling [71.87805084454187]
テキスト生成のための新しいアプローチであるCosmosを紹介します。
我々は,トークンレベルの拡散モデルに匹敵する生成品質を維持しつつ,テキスト表現を8倍に圧縮できることを実証した。
本研究では,ストーリー生成,質問生成,要約,デトキシフィケーションを含む4つの多種多様な生成課題についてコスモスを評価し,様々な生成パラダイムと比較する。
論文 参考訳(メタデータ) (2025-06-26T12:05:13Z) - Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Atomas: Hierarchical Alignment on Molecule-Text for Unified Molecule Understanding and Generation [42.08917809689811]
クロスモーダル表現学習は、分子表現の質を高めるための有望な方向として登場した。
SMILES文字列とテキストから表現を共同で学習する階層的分子表現学習フレームワークAtomasを提案する。
Atomasは11のデータセット上の12のタスクで優れたパフォーマンスを実現し、11のベースラインモデルを上回っている。
論文 参考訳(メタデータ) (2024-04-23T12:35:44Z) - Progressive Text-to-Image Diffusion with Soft Latent Direction [17.120153452025995]
本稿では,対象画像にエンティティを体系的に組み込んだ革新的なプログレッシブな合成・編集操作を提案する。
提案手法は,特に複雑なテキスト入力に直面する場合に,オブジェクト合成の顕著な進歩をもたらす。
論文 参考訳(メタデータ) (2023-09-18T04:01:25Z) - TESS: Text-to-Text Self-Conditioned Simplex Diffusion [56.881170312435444]
テキストからテキストへの自己条件付きSimplex Diffusionは、新しい形式のセルフコンディショニングを採用し、学習された埋め込み空間ではなく、ロジット単純空間に拡散プロセスを適用する。
我々は、TESSが最先端の非自己回帰モデルより優れており、性能の低下を最小限に抑えた拡散ステップを少なくし、事前訓練された自己回帰列列列列モデルと競合することを示した。
論文 参考訳(メタデータ) (2023-05-15T06:33:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。