論文の概要: Incentive-Aligned Multi-Source LLM Summaries
- arxiv url: http://arxiv.org/abs/2509.25184v1
- Date: Mon, 29 Sep 2025 17:59:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.15878
- Title: Incentive-Aligned Multi-Source LLM Summaries
- Title(参考訳): インセンティブアライメント型マルチソースLCMサプライヤー
- Authors: Yanchen Jiang, Zhe Feng, Aranyak Mehta,
- Abstract要約: 本稿では,具体的トラスラベルを使わずに現実的ロバスト性を向上させるインセンティブ型フレームワークであるTrusful Text Summarization(TTS)を紹介する。
TTSは、情報的合意に報いる、適応されたマルチタスクのピア予測メカニズムでソースをスコアする。
我々は、情報源のインセンティブと情報的誠実さを一致させる正式な保証を確立し、実用性を最大化する戦略を真実に報告する。
- 参考スコア(独自算出の注目度): 5.702732786890162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used in modern search and answer systems to synthesize multiple, sometimes conflicting, texts into a single response, yet current pipelines offer weak incentives for sources to be accurate and are vulnerable to adversarial content. We introduce Truthful Text Summarization (TTS), an incentive-aligned framework that improves factual robustness without ground-truth labels. TTS (i) decomposes a draft synthesis into atomic claims, (ii) elicits each source's stance on every claim, (iii) scores sources with an adapted multi-task peer-prediction mechanism that rewards informative agreement, and (iv) filters unreliable sources before re-summarizing. We establish formal guarantees that align a source's incentives with informative honesty, making truthful reporting the utility-maximizing strategy. Experiments show that TTS improves factual accuracy and robustness while preserving fluency, aligning exposure with informative corroboration and disincentivizing manipulation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、現代の検索と回答システムにおいて、複数の、時には矛盾するテキストを単一の応答に合成するために、ますます使われてきているが、現在のパイプラインは、ソースが正確で、敵対的なコンテンツに弱いインセンティブを提供する。
本稿では,具体的トラスラベルを使わずに現実的ロバスト性を向上させるインセンティブ型フレームワークであるTrusful Text Summarization(TTS)を紹介する。
TTS
i) 原文合成を原子クレームに分解する。
(ii)すべてのクレームに対する各ソースのスタンスを付与する。
三 情報提供契約を報奨する適応型マルチタスク・ピア・プレディション・メカニズムで情報源を採点し、
(iv)再要約する前に信頼できないソースをフィルタリングする。
我々は、情報源のインセンティブと情報的誠実さを一致させる正式な保証を確立し、実用性を最大化する戦略を真実に報告する。
実験により、TSは、流布を保ちながら事実の精度と堅牢性を向上し、情報的コロンボレーションと露出を一致させ、操作を非インセンティブ化することを示した。
関連論文リスト
- Enhancing Factual Accuracy and Citation Generation in LLMs via Multi-Stage Self-Verification [41.99844472131922]
本研究は,大規模言語モデル(LLMs)における幻覚の広範的問題と信頼的引用源の欠如に対処する新しい手法であるVeriFact-CoTを紹介する。
VeriFact-CoTは「ファクト検証・リフレクション・サイクリング統合」の多段階的なメカニズムを取り入れることで、LCMに対して批判的に自己検査を行い、中間的推論ステップと最終回答を改訂する権限を与える。
論文 参考訳(メタデータ) (2025-09-06T15:07:59Z) - TROVE: A Challenge for Fine-Grained Text Provenance via Source Sentence Tracing and Relationship Classification [32.958143806547234]
テキストpROVEnance(TROVE)チャレンジを導入し、ターゲットテキストの各文を特定のソース文にトレースする。
TROVEをベンチマークするために、11の多様なシナリオをカバーする3つの公開データセットを活用してデータセットを構築します。
我々は、直接的プロンプトおよび検索拡張パラダイムの下で11個のLLMを評価する。
論文 参考訳(メタデータ) (2025-03-19T15:09:39Z) - Localizing Factual Inconsistencies in Attributable Text Generation [74.11403803488643]
本稿では,帰属可能なテキスト生成における事実の不整合をローカライズするための新しい形式であるQASemConsistencyを紹介する。
QASemConsistencyは、人間の判断とよく相関する事実整合性スコアを得られることを示す。
論文 参考訳(メタデータ) (2024-10-09T22:53:48Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - Re-Search for The Truth: Multi-round Retrieval-augmented Large Language Models are Strong Fake News Detectors [38.75533934195315]
大きな言語モデル(LLM)はその顕著な推論と生成能力で知られている。
クレーム検証のための Web ソースからキーエビデンスを自動的に戦略的に抽出する,新たな LLM フレームワークについて紹介する。
我々の枠組みは十分な証拠の取得を保証し、性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T00:35:39Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Counterfactual Debiasing for Generating Factually Consistent Text
Summaries [46.88138136539263]
我々は,抽象的なテキスト要約のための因果グラフを構築し,事実的矛盾の本質的な原因を同定する。
本稿では,これらのバイアスの因果的影響を,非現実的推定によって緩和する,CoFactSumという脱バイアスフレームワークを提案する。
広く使われている2つの要約データセットの実験は、CoFactSumの有効性を実証している。
論文 参考訳(メタデータ) (2023-05-18T06:15:45Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。