論文の概要: Adaptable Claim Rewriting with Offline Reinforcement Learning for
Effective Misinformation Discovery
- arxiv url: http://arxiv.org/abs/2210.07467v1
- Date: Fri, 14 Oct 2022 02:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 16:26:25.620110
- Title: Adaptable Claim Rewriting with Offline Reinforcement Learning for
Effective Misinformation Discovery
- Title(参考訳): オフライン強化学習による効果的な誤情報発見のための適応的クレーム書き換え
- Authors: Ashkan Kazemi, Artem Abzaliev, Naihao Deng, Rui Hou, Davis Liang,
Scott A. Hale, Ver\'onica P\'erez-Rosas, Rada Mihalcea
- Abstract要約: 本稿では,ファクトチェッカーが既知の誤情報のクレームに対して検索クエリを定式化するための新しいシステムを提案する。
オフラインの強化学習によって編集動作が自動的に学習される適応可能な書き換え戦略を導入する。
提案手法は,クエリの有効性を42%まで向上させることができることを示す。
- 参考スコア(独自算出の注目度): 28.896892692287338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel system to help fact-checkers formulate search queries for
known misinformation claims and effectively search across multiple social media
platforms. We introduce an adaptable rewriting strategy, where editing actions
(e.g., swap a word with its synonym; change verb tense into present simple) for
queries containing claims are automatically learned through offline
reinforcement learning. Specifically, we use a decision transformer to learn a
sequence of editing actions that maximize query retrieval metrics such as mean
average precision. Through several experiments, we show that our approach can
increase the effectiveness of the queries by up to 42\% relatively, while
producing editing action sequences that are human readable, thus making the
system easy to use and explain.
- Abstract(参考訳): 本稿では,ファクトチェッカーが既知の誤情報クレームの検索クエリを定式化し,複数のソーシャルメディアプラットフォームを効果的に検索するシステムを提案する。
クレームを含むクエリに対する編集動作(例えば、単語を同義語に置き換え、動詞の時制を現在の単純に変更)がオフライン強化学習によって自動的に学習される適応可能な書き換え戦略を導入する。
具体的には,平均精度などのクエリ検索指標を最大化する一連の編集動作を,決定トランスフォーマティブを用いて学習する。
いくつかの実験を通して,本手法は,人間の読みやすい動作シーケンスを編集しながら,クエリの有効性を最大42\%向上させることで,システムの使用や説明が容易になることを示す。
関連論文リスト
- An Interactive Query Generation Assistant using LLM-based Prompt
Modification and User Feedback [9.461978375200102]
提案するインタフェースは,単言語および多言語文書コレクション上での対話型クエリ生成をサポートする,新しい検索インタフェースである。
このインタフェースにより、ユーザーは異なるLCMによって生成されたクエリを洗練し、検索したドキュメントやパスに対するフィードバックを提供し、より効果的なクエリを生成するプロンプトとしてユーザーのフィードバックを組み込むことができる。
論文 参考訳(メタデータ) (2023-11-19T04:42:24Z) - ControlRetriever: Harnessing the Power of Instructions for Controllable
Retrieval [53.06863641229893]
本稿では,多種多様な検索タスクを直接実行する高密度検索モデルを制御する制御レトリバーについて紹介する。
ControlRetrieverは、タスク固有の命令でガイドされている間、新しい制御可能な検索能力で異なる検索モデルに報いる。
論文 参考訳(メタデータ) (2023-08-19T14:17:57Z) - Self-Supervised Query Reformulation for Code Search [6.415583252034772]
本稿では,並列クエリコーパスに依存しない自己教師型クエリ再構成手法であるSSQRを提案する。
事前訓練されたモデルにインスパイアされたSSQRは、クエリ再構成をマスキング言語モデリングタスクとして扱う。
論文 参考訳(メタデータ) (2023-07-01T08:17:23Z) - ConvGQR: Generative Query Reformulation for Conversational Search [37.54018632257896]
ConvGQRは、生成事前訓練された言語モデルに基づいて会話クエリを再構成する新しいフレームワークである。
本稿では,クエリ再構成と検索の両方を最適化する知識注入機構を提案する。
論文 参考訳(メタデータ) (2023-05-25T01:45:06Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Query Rewriting via Cycle-Consistent Translation for E-Commerce Search [13.723266150864037]
本稿では,新しいディープニューラルネットワークによる問合せ書き換え手法を提案する。
繰り返し機械翻訳問題にクエリ書き換えを定式化します。
最新の機械翻訳モデルと連動した、新しいサイクル整合性トレーニングアルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-03-01T06:47:12Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。