論文の概要: Citation Failure: Definition, Analysis and Efficient Mitigation
- arxiv url: http://arxiv.org/abs/2510.20303v1
- Date: Thu, 23 Oct 2025 07:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.532928
- Title: Citation Failure: Definition, Analysis and Efficient Mitigation
- Title(参考訳): 循環不全:定義・分析・効率的な緩和
- Authors: Jan Buchmann, Iryna Gurevych,
- Abstract要約: LLMベースのRAGシステムからの引用は、応答検証の簡略化を目的としている。
これは、モデルが有効な応答を生成するとき、引用失敗には当てはまらないが、完全な証拠を引用することができない。
応答自体に欠陥があり、完全な証拠を引用することは不可能である。
- 参考スコア(独自算出の注目度): 56.09968229868067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Citations from LLM-based RAG systems are supposed to simplify response verification. However, this does not hold for citation failure, when a model generates a helpful response, but fails to cite complete evidence. In contrast to previous work, we propose to disentangle this from response failure, where the response itself is flawed, and citing complete evidence is impossible. To address citation failure, this work follows a two-step approach: (1) We study when citation failure occurs and (2) how it can be mitigated. For step 1, we extend prior work by investigating how the relation between response and evidence affects citation quality. We introduce CITECONTROL, a benchmark that systematically varies this relation to analyze failure modes. Experiments show that failures increase with relational complexity and suggest that combining citation methods could improve performance, motivating step 2. To improve LLM citation efficiently, we propose CITENTION, a framework integrating generative, attention-based, and retrieval-based methods. Results demonstrate substantial citation improvements on CITECONTROL and in transfer settings. We make our data and code publicly available.
- Abstract(参考訳): LLMベースのRAGシステムからの引用は、応答検証の簡略化を目的としている。
しかし、これは、モデルが有用な応答を生成するときの引用失敗には当てはまらないが、完全な証拠を引用することができない。
従来の研究とは対照的に、応答自体に欠陥があり、完全な証拠を引用することは不可能な応答失敗からこれを解き放つことを提案する。
励振故障に対処するため,本研究は,(1) 励振故障の発生時期と,(2) 緩和方法の2段階のアプローチを踏襲する。
ステップ1では、応答とエビデンスの関係が引用品質にどのように影響するかを調べ、先行作業を拡張する。
本稿では、この関係を系統的に変化させ、障害モードを分析するベンチマークであるCITECONTROLを紹介する。
実験により、リレーショナルな複雑性によって障害が増加することが示され、励振法を組み合わせることでパフォーマンスが向上し、ステップ2を動機付けることが示唆された。
LLM引用を効率よく改善するために,生成的,注意的,検索的手法を統合したフレームワークであるCITENTIONを提案する。
結果はCITECONTROLと転送設定で大幅に改善された。
データとコードを公開しています。
関連論文リスト
- VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification [107.75781898355562]
証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。
我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2025-10-13T13:38:54Z) - Generation-Time vs. Post-hoc Citation: A Holistic Evaluation of LLM Attribution [8.691344810384114]
大規模言語モデル (LLMs) は、医療、法律、アカデミア、金融といった高度な領域において、人間の検証可能な情報源を引用しなければならない。
本稿では,一つのパスで応答と引用を生成する生成時間Citation(G-Cite)と,起草後の引用を付加または検証するポストホックCitation(P-Cite)という2つのパラダイムを紹介する。
両パラダイムにおける帰属品質の主要因は検索であり,適用範囲と引用精度の相反するトレードオフを示した。
論文 参考訳(メタデータ) (2025-09-25T20:39:26Z) - SelfCite: Self-Supervised Alignment for Context Attribution in Large Language Models [51.90867482317985]
SelfCiteは、生成されたレスポンスの文に対して、きめ細かい文レベルの引用を生成する、自己教師型アプローチである。
SelfCiteの有効性は、LongBench-Citeベンチマークにおいて、引用F1を5.3ポイントまで増やすことによって示される。
論文 参考訳(メタデータ) (2025-02-13T18:55:13Z) - On the Capacity of Citation Generation by Large Language Models [38.47160164251295]
Retrieval-augmented Generation (RAG) は、大規模言語モデル(LLM)における「ハロシン化」問題を緩和するための有望な方法として現れる。
論文 参考訳(メタデータ) (2024-10-15T03:04:26Z) - ALiiCE: Evaluating Positional Fine-grained Citation Generation [54.19617927314975]
本稿では,微細な引用生成のための最初の自動評価フレームワークであるALiiCEを提案する。
我々のフレームワークはまず、文のクレームを依存性分析によって原子クレームに解析し、次に原子クレームレベルでの引用品質を計算する。
複数大言語モデルの2つの長文QAデータセット上での位置的きめ細かな引用生成性能を評価する。
論文 参考訳(メタデータ) (2024-06-19T09:16:14Z) - Learning to Generate Answers with Citations via Factual Consistency Models [28.716998866121923]
大型言語モデル(LLM)は、ミッションクリティカルな状況においてその信頼性を阻害する。
本稿では,事実整合性モデル(FCM)を利用した弱教師付き微調整法を提案する。
集中学習は目的に統合され、ファインチューニングプロセスが現実の単位トークンを強調するように指示される。
論文 参考訳(メタデータ) (2024-06-19T00:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。