論文の概要: TRIDENT: Temporally Restricted Inference via DFA-Enhanced Neural Traversal
- arxiv url: http://arxiv.org/abs/2506.09701v1
- Date: Wed, 11 Jun 2025 13:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.990316
- Title: TRIDENT: Temporally Restricted Inference via DFA-Enhanced Neural Traversal
- Title(参考訳): TRIDENT:DFA強化ニューラルトラバーサルによる時間制限推論
- Authors: Vincenzo Collura, Karim Tit, Laura Bussi, Eleonora Giunchiglia, Maxime Cordy,
- Abstract要約: TRIDENTは、再トレーニングを必要とせず、時間的制約の遵守を保証する推論時アルゴリズムである。
TRIDENTは完全な制約満足度を実現し,最先端技術と比較すると,効率と高品質の指標が向上している。
- 参考スコア(独自算出の注目度): 11.042648980854485
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) and other neural architectures have achieved impressive results across a variety of generative and classification tasks. However, they remain fundamentally ill-equipped to ensure that their outputs satisfy temporal constraints, such as those expressible in Linear Temporal Logic over finite traces (LTLf). In this paper, we introduce TRIDENT: a general and model-agnostic inference-time algorithm that guarantees compliance with such constraints without requiring any retraining. TRIDENT compiles LTLf formulas into a Deterministic Finite Automaton (DFA), which is used to guide a constrained variant of beam search. At each decoding step, transitions that would lead to constraint violations are masked, while remaining paths are dynamically re-ranked based on both the model's probabilities and the DFA's acceptance structure. We formally prove that the resulting sequences are guaranteed to satisfy the given LTLf constraints, and we empirically demonstrate that TRIDENT also improves output quality. We validate our approach on two distinct tasks: temporally constrained image-stream classification and controlled text generation. In both settings, TRIDENT achieves perfect constraint satisfaction, while comparison with the state of the art shows improved efficiency and high standard quality metrics.
- Abstract(参考訳): 大規模言語モデル(LLM)や他のニューラルアーキテクチャは、様々な生成的および分類的タスクで印象的な成果を上げている。
しかし、それらの出力が有限トレース (LTLf) 上の線形時間論理で表現できるような時間的制約を満たすように、基本的に不備なままである。
本稿では TRIDENT について紹介する: 一般およびモデルに依存しない推論時アルゴリズムで,再トレーニングを必要とせず,そのような制約の遵守を保証する。
TRIDENTはLTLf式を決定論的有限オートマトン(DFA)にコンパイルし、ビームサーチの制約付き変種を導出する。
各デコードステップでは、制約違反につながるトランジションがマスクされ、残りのパスはモデルの確率とDFAの受け入れ構造の両方に基づいて動的に再ランクされる。
結果の列が与えられたLTLf制約を満たすことが保証されることを正式に証明し、TRIDENTが出力品質を向上させることを実証的に実証する。
我々は,時間的制約のある画像ストリーム分類と制御されたテキスト生成という,2つの異なるタスクに対するアプローチを検証する。
両方の設定でTRIDENTは完全な制約満足度を実現し、最先端と比較すると効率と高品質のメトリクスが向上している。
関連論文リスト
- Token Constraint Decoding Improves Robustness on Question Answering for Large Language Models [4.078176555898098]
我々は,Token Constraint Decoding (TCD)を導入し,評価する。
この単純で効果的な推論時間アルゴリズムは、ノイズのある設定で堅牢性を高めるためにトークンレベルの予測をアライメントする。
本研究は, 実世界の不完全条件下での推論安定性向上のための, 実用的, モデルに依存しないアプローチとして, TCDを確立した。
論文 参考訳(メタデータ) (2025-06-11T05:33:56Z) - Solving Inverse Problems with FLAIR [59.02385492199431]
フローベースの潜在生成モデルは、驚くべき品質の画像を生成でき、テキスト・ツー・イメージ生成も可能である。
本稿では,フローベース生成モデルを逆問題の前兆として活用する新しい学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - TS-HTFA: Advancing Time Series Forecasting via Hierarchical Text-Free Alignment with Large Language Models [14.411646409316624]
時系列予測の新しい手法である textbfHierarchical textbfText-textbfFree textbfAlignment (textbfTS-HTFA) を導入する。
我々は、QR分解語埋め込みと学習可能なプロンプトに基づいて、ペア化されたテキストデータを適応的な仮想テキストに置き換える。
複数の時系列ベンチマークの実験は、HTFAが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2024-09-23T12:57:24Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Structure-Aware Path Inference for Neural Finite State Transducers [22.385573671312475]
ニューラル有限状態トランスデューサ (Neural finite-state Transducer, NFST) は、ニューロシンボリック・シークエンス・モデル(英語版)の表現的なファミリーを形成する。
与えられた入力文字列と出力文字列のペアを説明する潜在アライメントパスを命令する結果として生じる課題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-21T07:03:15Z) - ConSequence: Synthesizing Logically Constrained Sequences for Electronic
Health Record Generation [37.72570170375048]
本稿では、ドメイン知識を逐次生成ニューラルネットワーク出力に統合するための効果的なアプローチであるConSequenceを提案する。
本研究では,コンシークエンスの電子健康記録作成における効果を実証し,コンシークエンスの時間的・空間的制約満足度を総合的に評価した。
論文 参考訳(メタデータ) (2023-12-10T18:43:37Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。