論文の概要: Truth-Aware Decoding: A Program-Logic Approach to Factual Language Generation
- arxiv url: http://arxiv.org/abs/2510.07331v1
- Date: Fri, 03 Oct 2025 22:11:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.618338
- Title: Truth-Aware Decoding: A Program-Logic Approach to Factual Language Generation
- Title(参考訳): Truth-Aware Decoding: 実言語生成のためのプログラム論理的アプローチ
- Authors: Faruk Alpay, Hamdi Alakkad,
- Abstract要約: 本稿では,ニューラルネットワーク生成を知識ベースに整合させる検証指向の復号法であるTrath-Aware Decoding (TAD)を紹介する。
i) オラクルフィルタリングをプログラム論理的判断として表現する制約に基づくセマンティクス、(ii) 欲求選択が音と完全ガードの下で局所的可能性優位性を楽しむことの証明、(iii) 知識を意識した安全な質量を通じて事実的リスクを定量化するエントロピー型不変量である。
- 参考スコア(独自算出の注目度): 0.2864713389096699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Truth-Aware Decoding (TAD), a verification-oriented decoding scheme that aligns neural language generation with knowledge bases. Situated in the tradition of probabilistic program semantics for sequence models, TAD augments modern instruction-tuned systems with a lattice of semantic guards that operate at decode time. Our contributions are fourfold: (i) a constraint-based semantics that renders oracle filtering as a program-logic judgment, (ii) a proof that greedy selection enjoys local likelihood dominance under sound and complete guards (Theorem 2.7), (iii) an entropy-style invariant that quantifies factual risk via knowledge-aware safe mass, and (iv) a multi-agent operational calculus with verified Lean artefacts to certify implementation behaviour. Numerical and algorithmic case studies confirm that the resulting guardrails reduce hallucinations without sacrificing throughput, yielding a pragmatic bridge between large-scale empirical models and formal verification.
- Abstract(参考訳): 本稿では,ニューラルネットワーク生成を知識ベースに整合させる検証指向の復号法であるTrath-Aware Decoding (TAD)を紹介する。
シークエンスモデルの確率的プログラムセマンティクスの伝統に則って、TADはデコード時に動作するセマンティクスガードの格子で近代的な命令調整システムを拡張する。
私たちの貢献は4倍です。
(i)プログラム論理的判断としてオラクルフィルタリングを描画する制約に基づく意味論
(二 音及び完全ガードの下で、欲求選択が局所的可能性支配を享受することの証明(定理2.7)
三 知識を意識した安全質量を介して事実リスクを定量するエントロピー型不変量及び
(iv) 実装の振る舞いを認証するために、検証済みのリーンアーティファクトを備えたマルチエージェントの運用計算。
数値的およびアルゴリズム的なケーススタディにより、結果として生じるガードレールはスループットを犠牲にすることなく幻覚を減少させ、大規模な経験モデルと形式的検証の間に実用的な橋渡しをもたらすことが確認された。
関連論文リスト
- Taming Imperfect Process Verifiers: A Sampling Perspective on Backtracking [54.43083499412643]
言語モデルの生成能力をプロセス検証器と組み合わせたテストタイムアルゴリズムは、新しい推論能力を引き出すための有望なレバーを提供する。
提案手法は, 理論的に根拠付きバックトラックを用いて, 検証誤差に対して, 確実な堅牢性を実現するための新しいプロセス誘導型テスト時間サンプリングアルゴリズムであるVGBを導入する。
論文 参考訳(メタデータ) (2025-10-03T16:21:14Z) - RationAnomaly: Log Anomaly Detection with Rationality via Chain-of-Thought and Reinforcement Learning [27.235259453535537]
RationAnomalyは、Chain-of-Thoughtファインチューニングと強化学習を相乗化することにより、ログの異常検出を強化する新しいフレームワークである。
コードとデータセットを含む、対応するリソースをリリースしました。
論文 参考訳(メタデータ) (2025-09-18T07:35:58Z) - READER: Retrieval-Assisted Drafter for Efficient LLM Inference [0.0386965802948046]
自己回帰言語モデルはトークンシーケンスよりも分解された確率をインスタンス化するが、その厳密なシーケンシャルなデコーディングプロセスは、遅延推論に固有の低いバウンドを課す。
このボトルネックは、大規模生成モデルのスケーラブルなデプロイにおける中心的な障害として現れています。
本稿では,補助的ドラフトモデルのトレーニングを回避した投機的復号化フレームワークREADERを提案する。
論文 参考訳(メタデータ) (2025-08-12T16:47:48Z) - Position: Intelligent Coding Systems Should Write Programs with Justifications [9.304020701255093]
これらのシステムは、コードを生成するだけでなく、モデル推論とユーザ理解を橋渡しする明確な一貫性のある正当化も生み出すべきだ、と私たちは主張する。
我々は, 正当性生成のためのニューロシンボリックなアプローチを提唱し, トレーニング中の行動とプログラムセマンティクスが神経表現によって豊かになるように, 象徴的制約を導出する。
論文 参考訳(メタデータ) (2025-08-08T05:04:47Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - LatentQA: Teaching LLMs to Decode Activations Into Natural Language [72.87064562349742]
自然言語におけるモデルアクティベーションに関するオープンな疑問に答えるタスクであるLatentQAを紹介する。
本稿では,アクティベーションと関連する質問応答ペアのデータセット上で,デコーダLLMを微調整するLatent Interpretation Tuning (LIT)を提案する。
我々のデコーダはまた、ステレオタイプ付き文のモデルのデバイアス化や世代ごとの感情制御など、モデルを制御するために使用する差別化可能な損失も規定している。
論文 参考訳(メタデータ) (2024-12-11T18:59:33Z) - On the Reliability and Explainability of Language Models for Program
Generation [15.569926313298337]
自動プログラム生成手法の能力と限界について検討する。
私たちは、コード変換に大きく貢献するトークンを強調するために、高度な説明可能なAIアプローチを採用しています。
解析の結果,言語モデルではコード文法や構造情報を認識できるが,入力シーケンスの変化に対するロバスト性は限られていることがわかった。
論文 参考訳(メタデータ) (2023-02-19T14:59:52Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Learning Implicitly with Noisy Data in Linear Arithmetic [94.66549436482306]
PAC-セマンティックスにおける暗黙学習を拡張し、線形算術の言語における間隔としきい値の不確実性を扱う。
最適線形プログラミング対象制約の学習に対する我々の暗黙的アプローチは、実際的な明示的アプローチよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-10-23T19:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。