論文の概要: NEGATE: Constrained Semantic Guidance for Linguistic Negation in Text-to-Video Diffusion
- arxiv url: http://arxiv.org/abs/2603.06533v1
- Date: Fri, 06 Mar 2026 18:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.387522
- Title: NEGATE: Constrained Semantic Guidance for Linguistic Negation in Text-to-Video Diffusion
- Title(参考訳): NEGATE:テキスト・ビデオ拡散における言語否定のための制約付きセマンティックガイダンス
- Authors: Taewon Kang, Ming C. Lin,
- Abstract要約: 否定は基本的な言語演算子であるが、拡散に基づく生成システムでは不十分にモデル化されている。
本稿では,拡散に基づく生成モデルにおける言語否定の形式的扱いについて,意味指導に基づく構造的可能性制約としてモデル化する。
本手法は,視覚的忠実度と構造的コヒーレンスを維持しつつ,堅牢な否定コンプライアンスを実現する。
- 参考スコア(独自算出の注目度): 20.606497274927367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Negation is a fundamental linguistic operator, yet it remains inadequately modeled in diffusion-based generative systems. In this work, we present a formal treatment of linguistic negation in diffusion-based generative models by modeling it as a structured feasibility constraint on semantic guidance within diffusion dynamics. Rather than introducing heuristics or retraining model parameters, we reinterpret classifier-free guidance as defining a semantic update direction and enforce negation by projecting the update onto a convex constraint set derived from linguistic structure. This novel formulation provides a unified framework for handling diverse negation phenomena, including object absence, graded non-inversion semantics, multi-negation composition, and scope-sensitive disambiguation. Our approach is training-free, compatible with pretrained diffusion backbones, and naturally extends from image generation to temporally evolving video trajectories. In addition, we introduce a structured negation-centric benchmark suite that isolates distinct linguistic failure modes in generative systems, to further research in this area. Experiments demonstrate that our method achieves robust negation compliance while preserving visual fidelity and structural coherence, establishing the first unified formulation of linguistic negation in diffusion-based generative models beyond representation-level evaluation.
- Abstract(参考訳): 否定は基本的な言語演算子であるが、拡散に基づく生成システムでは不十分にモデル化されている。
本研究では,拡散力学における意味指導における構造的可能性制約として,拡散に基づく生成モデルにおける言語否定の形式的扱いについて述べる。
ヒューリスティックスを導入するか、モデルパラメータを再訓練する代わりに、意味的な更新方向の定義として分類器フリーガイダンスを再解釈し、言語構造から導出される凸制約セットに更新を投影することで否定を強制する。
この新しい定式化は、オブジェクトの欠如、グレードされた非反転意味論、多重否定合成、スコープ感受性の曖昧さを含む多様な否定現象を扱うための統一的なフレームワークを提供する。
我々のアプローチは、トレーニング不要で、事前訓練された拡散バックボーンと互換性があり、画像生成から時間的に変化するビデオトラジェクトリまで自然に拡張される。
さらに,この領域のさらなる研究のために,生成系の言語障害モードを分離した構造化否定中心ベンチマークスイートを導入する。
実験により,視覚的忠実度と構造的コヒーレンスを維持しつつ,ロバストな否定コンプライアンスを実現し,表現レベルの評価を超えて,拡散に基づく生成モデルにおける言語否定の統一的な定式化を確立した。
関連論文リスト
- On the Role of Discreteness in Diffusion LLMs [69.64854287505999]
拡散過程と言語モデリングの観点を再考し、拡散力学と言語固有の要件を分離する5つの特性を概説する。
i) 均一な汚職は、どのように情報を配置するかを尊重せず、 (ii) トークンワイドの辺縁トレーニングは、並列デコーディング中にマルチトークンの依存関係をキャプチャできない。
これらの観察は、テキストの構造とより密接に一致した拡散過程を動機付け、より一貫性のある拡散言語モデルに向けた将来の研究を促進する。
論文 参考訳(メタデータ) (2025-12-27T16:03:08Z) - Large Language Models as Quasi-crystals: Coherence Without Repetition in Generative Text [0.0]
エッセイは大規模言語モデル(LLM)と準結晶の類似性を提案し、局所的な制約によって生成される周期的反復を伴わないグローバルコヒーレンスを示すシステムである。
準結晶の歴史に基づいて、生成言語における代替的なコヒーレンスモード、すなわち反復や象徴的意図を伴わない制約に基づく組織を強調している。
このエッセイは、既存のメソッドを拒絶するのではなく、意味論よりも構造に根ざした解釈の新たな軸を提案することによって、大きな言語モデルに関する現在の議論を再考することを目的としている。
論文 参考訳(メタデータ) (2025-04-16T11:27:47Z) - Collapsed Language Models Promote Fairness [88.48232731113306]
偏りのある言語モデルはトークン表現と単語埋め込みの間に崩壊したアライメントを示す。
我々は,幅広い脱バイアス法において,公平性を効果的に向上する原理的な微調整法を設計する。
論文 参考訳(メタデータ) (2024-10-06T13:09:48Z) - Constructing Word-Context-Coupled Space Aligned with Associative
Knowledge Relations for Interpretable Language Modeling [0.0]
事前訓練された言語モデルにおけるディープニューラルネットワークのブラックボックス構造は、言語モデリングプロセスの解釈可能性を大幅に制限する。
解釈不能なニューラル表現と解釈不能な統計論理のアライメント処理を導入することで,ワードコンテキスト結合空間(W2CSpace)を提案する。
我々の言語モデルは,関連する最先端手法と比較して,優れた性能と信頼性の高い解釈能力を実現することができる。
論文 参考訳(メタデータ) (2023-05-19T09:26:02Z) - Montague semantics and modifier consistency measurement in neural language models [13.187353456418204]
本研究は,現代言語埋め込みモデルにおける構成行動を測定する新しい手法を提案する。
具体的には,形容詞・名詞句における形容詞修飾子現象に着目した。
論文 参考訳(メタデータ) (2022-10-10T18:43:16Z) - Learning Disentangled Representations for Natural Language Definitions [0.0]
テキストデータの連続的な構文的・意味的規則性は、構造的バイアスと生成的要因の両方をモデルに提供するのに有効である、と我々は主張する。
本研究では,文型,定義文の表現的・意味的に密接なカテゴリに存在する意味的構造を利用して,不整合表現を学習するための変分オートエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-09-22T14:31:55Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Discrete Variational Attention Models for Language Generation [51.88612022940496]
本稿では,言語における離散性に起因する注意機構のカテゴリー分布を考慮した離散的変動注意モデルを提案する。
離散性の特質により,提案手法の訓練は後部崩壊に支障を来さない。
論文 参考訳(メタデータ) (2020-04-21T05:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。