論文の概要: Generating Grounded Responses to Counter Misinformation via Learning Efficient Fine-Grained Critiques
- arxiv url: http://arxiv.org/abs/2506.05924v1
- Date: Fri, 06 Jun 2025 09:46:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.407454
- Title: Generating Grounded Responses to Counter Misinformation via Learning Efficient Fine-Grained Critiques
- Title(参考訳): ファイングラインド批判の学習による対向的誤情報に対する接地応答の生成
- Authors: Xiaofei Xu, Xiuzhen Zhang, Ke Deng,
- Abstract要約: MisMitiFactは、ファクトグラウンドの反レスポンスを大規模に生成するための効率的なフレームワークである。
我々は,手軽なファクトチェックサイトから得られたデータに基づいて訓練された軽量できめ細かな批判モデルを開発する。
フィードバック生成スループットは5倍に向上し、コスト効率が高く、大規模な誤情報低減に非常に適している。
- 参考スコア(独自算出の注目度): 9.514892000592912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fake news and misinformation poses a significant threat to society, making efficient mitigation essential. However, manual fact-checking is costly and lacks scalability. Large Language Models (LLMs) offer promise in automating counter-response generation to mitigate misinformation, but a critical challenge lies in their tendency to hallucinate non-factual information. Existing models mainly rely on LLM self-feedback to reduce hallucination, but this approach is computationally expensive. In this paper, we propose MisMitiFact, Misinformation Mitigation grounded in Facts, an efficient framework for generating fact-grounded counter-responses at scale. MisMitiFact generates simple critique feedback to refine LLM outputs, ensuring responses are grounded in evidence. We develop lightweight, fine-grained critique models trained on data sourced from readily available fact-checking sites to identify and correct errors in key elements such as numerals, entities, and topics in LLM generations. Experiments show that MisMitiFact generates counter-responses of comparable quality to LLMs' self-feedback while using significantly smaller critique models. Importantly, it achieves ~5x increase in feedback generation throughput, making it highly suitable for cost-effective, large-scale misinformation mitigation. Code and LLM prompt templates are at https://github.com/xxfwin/MisMitiFact.
- Abstract(参考訳): フェイクニュースと誤報は社会に重大な脅威をもたらし、効率的な緩和が不可欠である。
しかし、手動の事実チェックはコストが高く、スケーラビリティに欠けています。
大規模言語モデル(LLM)は、誤情報を緩和するために反応答生成を自動化することを約束するが、重要な課題は、非事実情報を幻覚させる傾向にある。
既存のモデルは主に幻覚を減らすためにLLMの自己フィードバックに依存しているが、このアプローチは計算的に高価である。
本稿では,ファクトを基盤としたミスマイティファクト(MisMitiFact)を提案する。
MisMitiFactはシンプルな批判的フィードバックを生成し、LCM出力を洗練し、応答が証拠に根拠づけられることを保証する。
我々は, LLM世代における数値, エンティティ, トピックなどの重要な要素の誤りを識別し, 訂正するために, 利用可能なファクトチェックサイトから得られたデータに基づいて訓練された, 軽量できめ細かな批判モデルを開発する。
実験により、MisMitiFactはLLMの自己フィードバックに匹敵する品質の反応答を生成し、より小さな批判モデルを用いていることが示された。
重要なことは、フィードバック生成スループットが約5倍に向上し、コスト効率が高く、大規模な誤情報低減に非常に適している。
コードとLLMプロンプトテンプレートはhttps://github.com/xxfwin/MisMitiFact.orgにある。
関連論文リスト
- Unraveling Misinformation Propagation in LLM Reasoning [19.89817963822589]
大規模言語モデルの推論過程において,誤情報がどのように伝播するかを示す。
推論過程の早い段階で事実訂正を適用することは、誤情報伝達を効果的に減少させる。
我々の研究は誤情報伝達を緩和するための実践的なアプローチを提供する。
論文 参考訳(メタデータ) (2025-05-24T06:45:45Z) - CaLM: Contrasting Large and Small Language Models to Verify Grounded Generation [76.31621715032558]
グラウンデッドジェネレーションは、言語モデル(LM)に、より信頼性が高く説明可能な応答を生成する能力を持たせることを目的としている。
本稿では,新しい検証フレームワークであるCaLMを紹介する。
我々のフレームワークは、より少ないパラメトリックメモリに依存する小さなLMを有効活用し、より大きなLMの出力を検証する。
論文 参考訳(メタデータ) (2024-06-08T06:04:55Z) - Evaluating the Factuality of Large Language Models using Large-Scale Knowledge Graphs [30.179703001666173]
大規模言語モデル(LLM)にとって、ファクチュアリティの問題は重要な問題である
我々は,かなり大きなテストデータセットを用いて,LLMの性能を評価するためにGraphEvalを提案する。
テストデータセットは、高価な人的努力なしで1000万以上の事実を持つ大規模な知識グラフから取得される。
論文 参考訳(メタデータ) (2024-04-01T06:01:17Z) - Fighting Fire with Fire: Adversarial Prompting to Generate a
Misinformation Detection Dataset [10.860133543817659]
誤報を識別するために, LLM を用いた銀標準地下構造データセットの作成手法を提案する。
具体的には、信頼できるニュース記事を考えると、我々の提案するアプローチは、LLMが元の記事の要約されたバージョンを自動的に生成するように促すことである。
本データセットの有用性を検討するために,誤情報検出のタスクに対して,教師付きモデルの範囲をトレーニングする一連の実験を行った。
論文 参考訳(メタデータ) (2024-01-09T10:38:13Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。