論文の概要: Leveraging LLM Parametric Knowledge for Fact Checking without Retrieval
- arxiv url: http://arxiv.org/abs/2603.05471v1
- Date: Thu, 05 Mar 2026 18:42:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.373929
- Title: Leveraging LLM Parametric Knowledge for Fact Checking without Retrieval
- Title(参考訳): 検索不要なファクトチェックのためのLLMパラメトリック知識の活用
- Authors: Artem Vazhentsev, Maria Marina, Daniil Moskovskiy, Sergey Pletenev, Mikhail Seleznyov, Mikhail Salnikov, Elena Tutubalina, Vasily Konovalov, Irina Nikishina, Alexander Panchenko, Viktor Moskvoretskii,
- Abstract要約: 信頼性は、大規模言語モデル(LLM)上に構築されたエージェントAIシステムの中核研究課題である
本研究では,任意の自然言語クレームの検証に焦点をあて,検索なしで事実チェックを行うタスクを提案する。
- 参考スコア(独自算出の注目度): 60.25608870901428
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Trustworthiness is a core research challenge for agentic AI systems built on Large Language Models (LLMs). To enhance trust, natural language claims from diverse sources, including human-written text, web content, and model outputs, are commonly checked for factuality by retrieving external knowledge and using an LLM to verify the faithfulness of claims to the retrieved evidence. As a result, such methods are constrained by retrieval errors and external data availability, while leaving the models intrinsic fact-verification capabilities largely unused. We propose the task of fact-checking without retrieval, focusing on the verification of arbitrary natural language claims, independent of their source. To study this setting, we introduce a comprehensive evaluation framework focused on generalization, testing robustness to (i) long-tail knowledge, (ii) variation in claim sources, (iii) multilinguality, and (iv) long-form generation. Across 9 datasets, 18 methods and 3 models, our experiments indicate that logit-based approaches often underperform compared to those that leverage internal model representations. Building on this finding, we introduce INTRA, a method that exploits interactions between internal representations and achieves state-of-the-art performance with strong generalization. More broadly, our work establishes fact-checking without retrieval as a promising research direction that can complement retrieval-based frameworks, improve scalability, and enable the use of such systems as reward signals during training or as components integrated into the generation process.
- Abstract(参考訳): 信頼性は、LLM(Large Language Models)上に構築されたエージェントAIシステムの中核研究課題である。
信頼を高めるために、人文テキスト、Webコンテンツ、モデルアウトプットを含む多様な情報源からの自然言語クレームは、外部知識を取得し、LLMを使用して、検索された証拠に対するクレームの忠実さを検証することで、事実性を確認することが一般的である。
その結果、このような手法は検索エラーや外部データの可用性に制約される一方で、本質的な事実検証能力はほとんど使われていない。
本稿では,任意の自然言語クレームの検証に焦点をあて,検索なしでファクトチェックを行うタスクを提案する。
この設定を研究するために、一般化、堅牢性のテストに焦点を当てた総合的な評価フレームワークを導入する。
(i)長い尾の知識。
(ii)クレーム源の変動
(三)多言語性、及び
(4)長大な世代。
9つのデータセット、18のメソッド、3つのモデルにまたがって、ロジットベースのアプローチは、内部モデル表現を利用するモデルに比べて性能が低いことが実験で示されている。
この発見に基づいて、内部表現間の相互作用を利用して、強力な一般化による最先端性能を実現するINTRAを導入する。
より広範に、我々の研究は、検索ベースのフレームワークを補完し、スケーラビリティを改善し、トレーニング中の報酬信号や生成プロセスに統合されたコンポーネントのようなシステムの使用を可能にする、有望な研究方向として、検索なしで事実チェックを確立する。
関連論文リスト
- Large Language Model Sourcing: A Survey [84.63438376832471]
大規模言語モデル(LLM)は人工知能に革命をもたらし、目的的タスクのサポートから主観的な意思決定の強化へと移行した。
LLMのブラックボックスの性質と生成したコンテンツの人間的品質のため、幻覚、偏見、不公平さ、著作権侵害などの問題が重要になる。
本研究は,4つの相互関連次元を中心に整理されたLCMによるコンテンツの出所追跡について,系統的研究を行った。
論文 参考訳(メタデータ) (2025-10-11T10:52:30Z) - Knowledge-Driven Hallucination in Large Language Models: An Empirical Study on Process Modeling [46.05103857535919]
解析的タスクにおける大規模言語モデルの実用性は、その膨大な事前訓練された知識に根ざしている。
この能力は、私たちが知識駆動幻覚と呼ぶものに対して、重大なリスクをもたらします。
本稿では,自動プロセスモデリングのタスクにおけるLCMの評価により,この現象を考察する。
論文 参考訳(メタデータ) (2025-09-18T18:27:30Z) - Improving Context Fidelity via Native Retrieval-Augmented Reasoning [35.50952279309109]
大規模言語モデル(LLM)は、しばしば文脈の忠実さと闘い、提供された情報に基づいて質問に答えるときに矛盾する答えを生み出す。
提案するCAREは, LLMに対して, モデル独自の検索機能を用いて, 推論プロセス内での文脈内証拠を明示的に統合するように教える, 新たなネイティブ検索拡張推論フレームワークである。
提案手法では,限定ラベル付きエビデンスデータが必要であり,推論チェーン内の戦略的に検索されたインコンテキストトークンを通じて,検索精度と回答生成性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-09-17T04:28:07Z) - Breaking the Trade-Off Between Faithfulness and Expressiveness for Large Language Models [14.166203096918247]
外部知識の接地応答は、大規模言語モデルにおける幻覚を緩和するための効果的な戦略である。
現在のLLMは、忠実さと表現性を同時に維持しながら、シームレスに知識を統合するのに苦労している。
本稿では,外部知識を伴わずに出力確率を動的に統合する新しい手法である協調復号法を提案する。
論文 参考訳(メタデータ) (2025-08-26T03:48:05Z) - Divide-Then-Align: Honest Alignment based on the Knowledge Boundary of RAG [51.120170062795566]
本稿では,問合せが知識境界外にある場合の"I don't know"で応答する機能を備えたRAGシステムを実現するためのDTAを提案する。
DTAは適切な棄権と精度のバランスをとり、検索強化システムの信頼性と信頼性を高める。
論文 参考訳(メタデータ) (2025-05-27T08:21:21Z) - Exploring the Generalizability of Factual Hallucination Mitigation via Enhancing Precise Knowledge Utilization [49.95746521480879]
PKUE(Precise Knowledge utilization Enhancement, 精密知識利用促進)を導入し, 正確かつ単純な事実質問に対する自己生成応答のモデルを微調整する。
大規模な実験により、PKUEはLLM全体の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-02-26T13:34:52Z) - KRAIL: A Knowledge-Driven Framework for Base Human Reliability Analysis Integrating IDHEAS and Large Language Models [2.7378790256389047]
本稿では,IDHEASとLLM(KRAIL)を統合した知識駆動型信頼性分析のための新しい2段階フレームワークを提案する。
本稿では,自然言語処理における大規模言語モデル(LLM)の成功に触発されて,知識駆動型信頼性分析のための新しい2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-20T06:21:34Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - MATTER: Memory-Augmented Transformer Using Heterogeneous Knowledge Sources [12.783393023641505]
我々は、MATTERと呼ばれる効率的なメモリ拡張変換器を導入する。
MATTERは、固定長のニューラルメモリの形で、非構造化ソース(パラグラフ)と半構造化ソース(QAペア)の両方から読み取る。
提案モデルでは,従来のQAベンチマークにおいて,精度と速度の両面で,既存の効率的な検索強化モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-07T06:35:37Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。