論文の概要: Factuality on Demand: Controlling the Factuality-Informativeness Trade-off in Text Generation
- arxiv url: http://arxiv.org/abs/2602.00848v1
- Date: Sat, 31 Jan 2026 18:22:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.43154
- Title: Factuality on Demand: Controlling the Factuality-Informativeness Trade-off in Text Generation
- Title(参考訳): 需要のFactality:テキスト生成におけるFactality-Informativenessトレードオフの制御
- Authors: Ziwei Gong, Yanda Chen, Julia Hirschberg, Chen Zhao, He He, Zhou Yu, Kathleen Mckeown,
- Abstract要約: 提案するFactality-Controlled Generation (FCG) は,ユーザがクエリと並行してファクトリティ制約を指定できるフレームワークである。
また,本研究の総合学習は,実感要求を尊重し,生産物の情報性を維持することによって,モデルの能力を大幅に向上させることを示した。
- 参考スコア(独自算出の注目度): 44.45700604184079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) encode knowledge with varying degrees of confidence. When responding to queries, models face an inherent trade-off: they can generate responses that are less informative but highly factual, or more informative but potentially less accurate. Different applications demand different balances between informativeness and factuality. We introduce Factuality-Controlled Generation (FCG), a framework that enables users to specify factuality constraints alongside their queries. We propose to evaluate FCG performance on two dimensions: adherence to factuality constraints and response informativeness. We propose to train models on the FCG task using synthetic data, and show that our synthetic training significantly improves models' ability to both respect factuality requirements and maintain informativeness in their outputs.
- Abstract(参考訳): 大規模言語モデル(LLM)は知識を様々な信頼度でエンコードする。
クエリに応答する場合、モデルは固有のトレードオフに直面します。
異なるアプリケーションでは、情報性と事実性のバランスが異なります。
提案するFactality-Controlled Generation (FCG) は,ユーザがクエリと並行してファクトリティ制約を指定できるフレームワークである。
本稿では,事実性制約の遵守と応答の伝達性という2つの次元においてFCGの性能を評価することを提案する。
合成データを用いてFCGタスク上でのモデルを訓練することを提案し,本学習は,実感要求を尊重し,その出力の情報性を維持することによって,モデルの能力を大幅に向上させることを示した。
関連論文リスト
- LeapFactual: Reliable Visual Counterfactual Explanation Using Conditional Flow Matching [8.220601095681355]
本稿では,条件付きフローマッチングに基づく新しい対実的説明アルゴリズム LeapFactualを提案する。
LeapFactualは、真実と学習された決定境界が分岐しても、信頼性が高く情報的な反ファクトを生成する。
ヒューマン・イン・ザ・ループのシステムを扱うことができ、ヒューマン・アノテータの参加を必要とするドメインに対実的な説明の範囲を広げることができる。
論文 参考訳(メタデータ) (2025-10-16T12:34:10Z) - Forgetting: A New Mechanism Towards Better Large Language Model Fine-tuning [51.92313556418432]
Supervised Fine-tuning (SFT) は、事前訓練された大規模言語モデル (LLM) において重要な役割を果たす。
各コーパス内のトークンを、モデルパフォーマンスを改善するのに有用かどうかに基づいて、正と負の2つの部分に分類することを提案する。
我々は、よく確立されたベンチマークで実験を行い、この忘れるメカニズムが全体のモデル性能を向上するだけでなく、より多様なモデル応答を促進することを発見した。
論文 参考訳(メタデータ) (2025-08-06T11:22:23Z) - Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [78.1575956773948]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - LLMs as Repositories of Factual Knowledge: Limitations and Solutions [1.7764955091415962]
本研究では,事実知識のリポジトリとしてのLarge Language Models(LLMs)の妥当性について検討する。
時間に敏感な事実質問に応答する際の信頼性を評価する。
本稿では,モデルの性能向上を図るため,ENAF(ENtity-Aware Fine-tuning)を提案する。
論文 参考訳(メタデータ) (2025-01-22T10:16:53Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。