論文の概要: Reranking Passages with Coarse-to-Fine Neural Retriever using
List-Context Information
- arxiv url: http://arxiv.org/abs/2308.12022v1
- Date: Wed, 23 Aug 2023 09:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:59:22.171544
- Title: Reranking Passages with Coarse-to-Fine Neural Retriever using
List-Context Information
- Title(参考訳): リストコンテキスト情報を用いた粗大なニューラルリトライバを用いたリグレードパス
- Authors: Hongyin Zhu
- Abstract要約: 本稿では、他の候補からリストコンテキスト情報を取り入れることで、文節表現を増強するリストコンテキストアテンション機構を提案する。
The proposed coarse-to-fine neural retriever address the out-of-Memory limitation of the passage attention mechanism。
提案手法の有効性を示す実験を行った。
- 参考スコア(独自算出の注目度): 0.9463895540925061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Passage reranking is a crucial task in many applications, particularly when
dealing with large-scale documents. Traditional neural architectures are
limited in retrieving the best passage for a question because they usually
match the question to each passage separately, seldom considering contextual
information in other passages that can provide comparison and reference
information. This paper presents a list-context attention mechanism to augment
the passage representation by incorporating the list-context information from
other candidates. The proposed coarse-to-fine (C2F) neural retriever addresses
the out-of-memory limitation of the passage attention mechanism by dividing the
list-context modeling process into two sub-processes, allowing for efficient
encoding of context information from a large number of candidate answers. This
method can be generally used to encode context information from any number of
candidate answers in one pass. Different from most multi-stage information
retrieval architectures, this model integrates the coarse and fine rankers into
the joint optimization process, allowing for feedback between the two layers to
update the model simultaneously. Experiments demonstrate the effectiveness of
the proposed approach.
- Abstract(参考訳): 多くのアプリケーション、特に大規模ドキュメントを扱う場合、パスリランクは重要なタスクである。
従来のニューラルアーキテクチャは、比較情報と参照情報を提供する他のパスで文脈情報を考えることはめったにないため、質問のための最良のパスを取得する際に制限される。
本稿では,他の候補からのlist-context情報を取り込むことにより,パッセージ表現を増強するlist-context attentionメカニズムを提案する。
提案したC2Fニューラルレトリバーは、リストコンテキストモデリングプロセスを2つのサブプロセスに分割することにより、パスアテンション機構のメモリ外制限に対処し、多数の候補回答からコンテキスト情報の効率的な符号化を可能にする。
この手法は一般に、任意の数の候補回答から1回のパスでコンテキスト情報を符号化するために用いられる。
多くの多段階情報検索アーキテクチャとは異なり、このモデルは粗いと細かなランク付けを共同最適化プロセスに統合し、2層間のフィードバックを同時に更新することができる。
提案手法の有効性を示す実験を行った。
関連論文リスト
- Leveraging Inter-Chunk Interactions for Enhanced Retrieval in Large Language Model-Based Question Answering [12.60063463163226]
IIERは、構造、キーワード、セマンティックという3つのタイプの相互作用を考慮し、ドキュメントチャンク間の内部接続をキャプチャする。
対象の質問に基づいて複数のシードノードを特定し、関連するチャンクを反復的に検索して、支持する証拠を収集する。
コンテキストと推論チェーンを洗練し、推論と回答の生成において大きな言語モデルを支援する。
論文 参考訳(メタデータ) (2024-08-06T02:39:55Z) - Passage-specific Prompt Tuning for Passage Reranking in Question Answering with Large Language Models [11.716595438057997]
オープンドメイン質問応答(PSPT)における再ランク付けのためのパス固有プロンプトチューニングを提案する。
PSPTは、学習可能なパス固有のソフトプロンプトを微調整するパラメータ効率の手法である。
我々は,Llama-2-chat-7Bモデルを用いた3つの公開領域質問応答データセットの広範な実験を行った。
論文 参考訳(メタデータ) (2024-05-31T07:43:42Z) - Multi-Granularity Information Interaction Framework for Incomplete
Utterance Rewriting [32.05944198256814]
Incomplete Utterance Rewriting (IUR)の最近のアプローチでは、重要な単語のソースをキャプチャできない。
本稿では,コンテキスト選択,編集行列の構成,関連性統合を含む,新しいマルチタスク情報インタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-19T08:43:02Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - Contextual Fine-to-Coarse Distillation for Coarse-grained Response
Selection in Open-Domain Conversations [48.046725390986595]
オープンドメイン会話における粗粒度応答選択のための文脈ファイン・ツー・コアス(CFC)蒸留モデルを提案する。
提案モデルの性能を評価するため,RedditコメントダンプとTwitterコーパスに基づく2つの新しいデータセットを構築した。
論文 参考訳(メタデータ) (2021-09-24T08:22:35Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - ClarQ: A large-scale and diverse dataset for Clarification Question
Generation [67.1162903046619]
そこで我々は,スタックエクスチェンジから抽出したポストコメンデーションに基づいて,多様な,大規模な明確化質問データセットの作成を支援する,新しいブートストラップフレームワークを考案した。
質問応答の下流タスクに適用することで,新たに作成したデータセットの有用性を定量的に示す。
我々はこのデータセットを公開し、ダイアログと質問応答システムの拡張という大きな目標を掲げて、質問生成の分野の研究を促進する。
論文 参考訳(メタデータ) (2020-06-10T17:56:50Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。