論文の概要: Evidence-Driven Retrieval Augmented Response Generation for Online Misinformation
- arxiv url: http://arxiv.org/abs/2403.14952v1
- Date: Fri, 22 Mar 2024 05:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 18:37:30.399016
- Title: Evidence-Driven Retrieval Augmented Response Generation for Online Misinformation
- Title(参考訳): Evidence-Driven Retrieval Augmented Response Generation for Online Misinformation
- Authors: Zhenrui Yue, Huimin Zeng, Yimeng Lu, Lanyu Shang, Yang Zhang, Dong Wang,
- Abstract要約: オンライン誤報(RARG)のための検索強化応答生成を提案する。
RARGは科学的情報源から証拠を収集し、証拠に基づいて反情報応答を生成する。
得られた証拠の質を維持しつつ,得られた証拠の有効利用を最大化する報奨関数を提案する。
- 参考スコア(独自算出の注目度): 18.18205773056388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of online misinformation has posed significant threats to public interest. While numerous online users actively participate in the combat against misinformation, many of such responses can be characterized by the lack of politeness and supporting facts. As a solution, text generation approaches are proposed to automatically produce counter-misinformation responses. Nevertheless, existing methods are often trained end-to-end without leveraging external knowledge, resulting in subpar text quality and excessively repetitive responses. In this paper, we propose retrieval augmented response generation for online misinformation (RARG), which collects supporting evidence from scientific sources and generates counter-misinformation responses based on the evidences. In particular, our RARG consists of two stages: (1) evidence collection, where we design a retrieval pipeline to retrieve and rerank evidence documents using a database comprising over 1M academic articles; (2) response generation, in which we align large language models (LLMs) to generate evidence-based responses via reinforcement learning from human feedback (RLHF). We propose a reward function to maximize the utilization of the retrieved evidence while maintaining the quality of the generated text, which yields polite and factual responses that clearly refutes misinformation. To demonstrate the effectiveness of our method, we study the case of COVID-19 and perform extensive experiments with both in- and cross-domain datasets, where RARG consistently outperforms baselines by generating high-quality counter-misinformation responses.
- Abstract(参考訳): オンラインの誤報の拡散は、大衆の関心に重大な脅威をもたらしている。
多くのオンラインユーザーが誤報との戦いに積極的に参加しているが、こうした反応の多くは丁寧さの欠如と支援事実によって特徴づけられる。
解法として, テキスト生成手法を提案し, 反情報応答を自動生成する。
それでも、既存のメソッドは外部の知識を活用せずにエンドツーエンドで訓練されることが多く、結果としてテキストの品質が低くなり、繰り返しの応答が過度に繰り返される。
本稿では,オンライン誤情報(RARG)に対する検索強化応答生成を提案する。
具体的には,(1)研究論文100万件を超えるデータベースを用いて,証拠文書を検索・再引用するための検索パイプラインを設計するエビデンス収集,(2)大規模言語モデル(LLM)を整列させて,人間からのフィードバック(RLHF)からの強化学習を通じてエビデンスベースの応答を生成する応答生成,という2つの段階から構成される。
本稿では, 得られた証拠の有効利用を最大化しつつ, 得られたテキストの品質を維持しつつ, 誤情報を明確に否定する礼儀正しく事実的な応答を与える報奨関数を提案する。
提案手法の有効性を実証するため,COVID-19の事例について検討し,ドメイン内およびクロスドメインのデータセットを用いて広範な実験を行い,RARGは高品質な偽情報応答を発生させることでベースラインを一貫して上回る結果を得た。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Retrieval Augmented Fact Verification by Synthesizing Contrastive Arguments [23.639378586798884]
コントラスト引数の合成による検索拡張現実事実検証を提案する。
提案手法は,関連文書を証拠として効果的に検索し,様々な視点から議論を評価する。
RAFTS は GPT 法よりはるかに小さい 7B LLM で優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-06-14T08:13:34Z) - Understanding Retrieval Augmentation for Long-Form Question Answering [44.19142029392175]
本稿では,長文質問応答における検索強化言語モデル(LM)について検討する。
モデルから生成した回答を同一の証拠文書を用いて比較することにより,検索強化が異なるLMに与える影響を解析する。
論文 参考訳(メタデータ) (2023-10-18T17:59:10Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Promoting Open-domain Dialogue Generation through Learning Pattern
Information between Contexts and Responses [5.936682548344234]
本稿では,学習サンプルの文脈と応答の間の暗黙的なパターン情報を学ぶことにより,生成した応答の品質を向上させる。
また、文脈と応答間の暗黙的パターン情報をマイニングする応答認識機構を設計し、生成した応答をより多様でヒトの応答に近似するようにした。
論文 参考訳(メタデータ) (2023-09-06T08:11:39Z) - Reinforcement Learning-based Counter-Misinformation Response Generation:
A Case Study of COVID-19 Vaccine Misinformation [19.245814221211415]
非熟練の一般ユーザーは、偽情報に対して積極的に対応している。
本研究では、誤情報と反誤情報応答のペアの2つの新しいデータセットを作成する。
我々は,反情報応答を学習する強化学習に基づくフレームワークであるMisinfoCorrectを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:55:01Z) - Reranking Overgenerated Responses for End-to-End Task-Oriented Dialogue
Systems [71.33737787564966]
エンド・ツー・エンド(E2E)タスク指向対話システム(ToD)は、いわゆる「いいね!
本稿では,システムによって当初過剰に生成された応答リストから高品質な項目を選択する方法を提案する。
本研究では,最先端のE2E ToDシステムを2.4BLEU,3.2ROUGE,2.8 METEORで改善し,新たなピーク値を得た。
論文 参考訳(メタデータ) (2022-11-07T15:59:49Z) - Rome was built in 1776: A Case Study on Factual Correctness in
Knowledge-Grounded Response Generation [18.63673852470077]
3つの異なる応答タイプを識別するために,人間のアノテーション設定を提案する。
私たちは、ウィザード・オブ・ウィキペディアのデータセットから適応したConv-FEVERという新しいコーパスを自動生成します。
論文 参考訳(メタデータ) (2021-10-11T17:48:11Z) - REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement [130.8875535449478]
REM-Netは、答えを説明できない低品質な証拠を消去することで証拠を洗練するためのモジュールを備えている。
既存の知識ベースから証拠を取得する代わりに、REM-Netは事前訓練された生成モデルを利用して、質問用にカスタマイズされた候補証拠を生成する。
結果はREM-Netの性能を示し、洗練された証拠が説明可能であることを示します。
論文 参考訳(メタデータ) (2020-12-24T10:07:32Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。