論文の概要: Query Rewriting for Effective Misinformation Discovery
- arxiv url: http://arxiv.org/abs/2210.07467v2
- Date: Mon, 2 Oct 2023 20:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 10:58:08.584859
- Title: Query Rewriting for Effective Misinformation Discovery
- Title(参考訳): 効果的な誤情報発見のためのクエリ書き換え
- Authors: Ashkan Kazemi, Artem Abzaliev, Naihao Deng, Rui Hou, Scott A. Hale,
Ver\'onica P\'erez-Rosas, Rada Mihalcea
- Abstract要約: 本稿では,ファクトチェッカーが既知の誤情報のクレームに対して検索クエリを定式化するための新しいシステムを提案する。
クレームを含むクエリの編集動作は,オフラインの強化学習によって自動的に学習される。
- 参考スコア(独自算出の注目度): 31.01132040005114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel system to help fact-checkers formulate search queries for
known misinformation claims and effectively search across multiple social media
platforms. We introduce an adaptable rewriting strategy, where editing actions
for queries containing claims (e.g., swap a word with its synonym; change verb
tense into present simple) are automatically learned through offline
reinforcement learning. Our model uses a decision transformer to learn a
sequence of editing actions that maximizes query retrieval metrics such as mean
average precision. We conduct a series of experiments showing that our query
rewriting system achieves a relative increase in the effectiveness of the
queries of up to 42%, while producing editing action sequences that are human
interpretable.
- Abstract(参考訳): 本稿では,ファクトチェッカーが既知の誤情報クレームの検索クエリを定式化し,複数のソーシャルメディアプラットフォームを効果的に検索するシステムを提案する。
クレームを含むクエリの編集動作(例えば、単語を同義語に置き換え、動詞の時制を現在の単純に変更)をオフラインの強化学習によって自動的に学習する、適応可能な書き換え戦略を導入する。
我々のモデルは,平均的精度などのクエリ検索指標を最大化する編集動作の列を決定変換器を用いて学習する。
我々は,クエリ書き換えシステムが,人間の解釈可能な編集動作シーケンスを生成しながら,クエリの有効性を最大42%向上させることを示す一連の実験を行った。
関連論文リスト
- LLM-R2: A Large Language Model Enhanced Rule-based Rewrite System for Boosting Query Efficiency [65.01402723259098]
本稿では,LLM-R2 という新しいクエリ書き換え手法を提案する。
実験結果から,本手法はクエリ実行効率を大幅に向上し,ベースライン法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-19T13:17:07Z) - An Interactive Query Generation Assistant using LLM-based Prompt
Modification and User Feedback [9.461978375200102]
提案するインタフェースは,単言語および多言語文書コレクション上での対話型クエリ生成をサポートする,新しい検索インタフェースである。
このインタフェースにより、ユーザーは異なるLCMによって生成されたクエリを洗練し、検索したドキュメントやパスに対するフィードバックを提供し、より効果的なクエリを生成するプロンプトとしてユーザーのフィードバックを組み込むことができる。
論文 参考訳(メタデータ) (2023-11-19T04:42:24Z) - Self-Supervised Query Reformulation for Code Search [6.415583252034772]
本稿では,並列クエリコーパスに依存しない自己教師型クエリ再構成手法であるSSQRを提案する。
事前訓練されたモデルにインスパイアされたSSQRは、クエリ再構成をマスキング言語モデリングタスクとして扱う。
論文 参考訳(メタデータ) (2023-07-01T08:17:23Z) - ConvGQR: Generative Query Reformulation for Conversational Search [37.54018632257896]
ConvGQRは、生成事前訓練された言語モデルに基づいて会話クエリを再構成する新しいフレームワークである。
本稿では,クエリ再構成と検索の両方を最適化する知識注入機構を提案する。
論文 参考訳(メタデータ) (2023-05-25T01:45:06Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Query Rewriting via Cycle-Consistent Translation for E-Commerce Search [13.723266150864037]
本稿では,新しいディープニューラルネットワークによる問合せ書き換え手法を提案する。
繰り返し機械翻訳問題にクエリ書き換えを定式化します。
最新の機械翻訳モデルと連動した、新しいサイクル整合性トレーニングアルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-03-01T06:47:12Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。