論文の概要: When retrieval outperforms generation: Dense evidence retrieval for scalable fake news detection
- arxiv url: http://arxiv.org/abs/2511.04643v1
- Date: Thu, 06 Nov 2025 18:35:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.56026
- Title: When retrieval outperforms generation: Dense evidence retrieval for scalable fake news detection
- Title(参考訳): 検索が生成を上回ったとき:スケーラブルな偽ニュース検出のためのデンスエビデンス検索
- Authors: Alamgir Munir Qazi, John P. McCrae, Jamal Abdul Nasir,
- Abstract要約: DeReCは、汎用的なテキスト埋め込みが、実際に検証タスクにおいて、自動回帰LPMベースのアプローチを効果的に置き換える方法について、軽量なフレームワークである。
本システムでは,高密度検索と特殊分類を組み合わせることにより,精度が向上し,効率も向上した。
この結果から, 検索システムでは, 特定のタスクにおいて, LLMの性能に適合したり, 上回ったりできることが示された。
- 参考スコア(独自算出の注目度): 1.329253775274691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of misinformation necessitates robust yet computationally efficient fact verification systems. While current state-of-the-art approaches leverage Large Language Models (LLMs) for generating explanatory rationales, these methods face significant computational barriers and hallucination risks in real-world deployments. We present DeReC (Dense Retrieval Classification), a lightweight framework that demonstrates how general-purpose text embeddings can effectively replace autoregressive LLM-based approaches in fact verification tasks. By combining dense retrieval with specialized classification, our system achieves better accuracy while being significantly more efficient. DeReC outperforms explanation-generating LLMs in efficiency, reducing runtime by 95% on RAWFC (23 minutes 36 seconds compared to 454 minutes 12 seconds) and by 92% on LIAR-RAW (134 minutes 14 seconds compared to 1692 minutes 23 seconds), showcasing its effectiveness across varying dataset sizes. On the RAWFC dataset, DeReC achieves an F1 score of 65.58%, surpassing the state-of-the-art method L-Defense (61.20%). Our results demonstrate that carefully engineered retrieval-based systems can match or exceed LLM performance in specialized tasks while being significantly more practical for real-world deployment.
- Abstract(参考訳): 誤報の拡散は、堅牢で計算的に効率的な事実検証システムを必要とする。
現在の最先端のアプローチでは、説明的合理性を生成するためにLarge Language Models(LLM)を利用しているが、これらの手法は実世界の展開において重大な計算障壁と幻覚リスクに直面している。
DeReC(Dense Retrieval Classification)は、汎用的なテキスト埋め込みが、実際に検証タスクにおいて自己回帰的LPMベースのアプローチを効果的に置き換えることのできる、軽量なフレームワークである。
本システムでは,高密度検索と特殊分類を組み合わせることにより,精度が向上し,効率も向上した。
DeReC は説明生成 LLM を効率良く向上させ、RAWFC (454分12秒) で95%、LIAR-RAW (1692分23秒) で92%削減し、様々なデータセットサイズでその効果を示す。
RAWFCデータセットでは、DeReCは65.58%のF1スコアを獲得し、最先端のL-Defense (61.20%)を上回っている。
提案手法は, 検索システムにおいて, LLMの性能に適合し, かつ, 実世界展開において極めて実用的であることを示すものである。
関連論文リスト
- Advanced Multi-Architecture Deep Learning Framework for BIRADS-Based Mammographic Image Retrieval: Comprehensive Performance Analysis with Super-Ensemble Optimization [0.0]
マンモグラフィ画像検索システムでは、5つの異なるクラスにまたがる正確なBIRADSカテゴリマッチングが必要である。
現在の医用画像検索研究は方法論的限界に悩まされている。
論文 参考訳(メタデータ) (2025-08-06T18:05:18Z) - Phishing Detection in the Gen-AI Era: Quantized LLMs vs Classical Models [1.4999444543328293]
フィッシング攻撃はますます洗練され、高精度と計算効率のバランスをとる検知システムの必要性が強調されている。
本稿では、フィッシング検出のための従来の機械学習(ML)、ディープラーニング(DL)、および量子化された小パラメータ大規模言語モデル(LLM)の比較評価を行う。
現在,LLMはML法やDL法に比べて精度が低いが,文脈に基づく微妙なフィッシング手法を識別する可能性が強い。
論文 参考訳(メタデータ) (2025-07-10T04:01:52Z) - CiteFix: Enhancing RAG Accuracy Through Post-Processing Citation Correction [0.2548904650574671]
Retrieval Augmented Generation (RAG) はLarge Language Models (LLM) の強力な応用として登場した。
本研究は,情報検索および要約作業におけるAI生成コンテンツの信頼性と信頼性の向上に寄与する。
論文 参考訳(メタデータ) (2025-04-22T06:41:25Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Evaluating the Effectiveness and Efficiency of Demonstration Retrievers in RAG for Coding Tasks [6.34946724864899]
本稿では,3つの符号化タスクにおけるレトリバーの効率効率性トレードオフを系統的に評価する。
BM25は有効性は優れているが,知識ベースが1000を超えると効率が低下する。
大規模な検索では、効率の差がより顕著になり、ほぼ密集した検索者が最大利得を提供する。
論文 参考訳(メタデータ) (2024-10-12T22:31:01Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - Text Quality-Based Pruning for Efficient Training of Language Models [66.66259229732121]
本研究では,大容量NLPデータセットのテキスト品質を数値評価する手法を提案する。
テキスト品質指標を提案することにより、低品質テキストインスタンスを識別・排除する枠組みを確立する。
複数のモデルやデータセットに対する実験結果から,このアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-04-26T18:01:25Z) - LaPraDoR: Unsupervised Pretrained Dense Retriever for Zero-Shot Text
Retrieval [55.097573036580066]
実験結果から,LaPraDoRは教師付き高密度検索モデルと比較して最先端の性能が得られることがわかった。
再ランクと比較すると,1ミリ秒 (22.5倍高速) でレキシコン強化手法を動作させることができるが,性能は良好である。
論文 参考訳(メタデータ) (2022-03-11T18:53:12Z) - Finding Action Tubes with a Sparse-to-Dense Framework [62.60742627484788]
本稿では,ビデオストリームからのアクションチューブ提案を1つのフォワードパスでスパース・トゥ・デンス方式で生成するフレームワークを提案する。
UCF101-24, JHMDB-21, UCFSportsベンチマークデータセット上で, 本モデルの有効性を評価する。
論文 参考訳(メタデータ) (2020-08-30T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。