論文の概要: DREQ: Document Re-Ranking Using Entity-based Query Understanding
- arxiv url: http://arxiv.org/abs/2401.05939v1
- Date: Thu, 11 Jan 2024 14:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 14:18:26.605692
- Title: DREQ: Document Re-Ranking Using Entity-based Query Understanding
- Title(参考訳): DREQ: エンティティベースのクエリ理解を用いたドキュメントの再ランキング
- Authors: Shubham Chatterjee, Iain Mackie, Jeff Dalton
- Abstract要約: DREQはエンティティ指向の高密度ドキュメント再ランクモデルである。
ドキュメント表現内のクエリ関連エンティティを強調しながら、関連性の低いエンティティを同時に減らします。
DREQは、最先端のニューラル・非ニューラル・リグレード法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 6.675805308519988
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While entity-oriented neural IR models have advanced significantly, they
often overlook a key nuance: the varying degrees of influence individual
entities within a document have on its overall relevance. Addressing this gap,
we present DREQ, an entity-oriented dense document re-ranking model. Uniquely,
we emphasize the query-relevant entities within a document's representation
while simultaneously attenuating the less relevant ones, thus obtaining a
query-specific entity-centric document representation. We then combine this
entity-centric document representation with the text-centric representation of
the document to obtain a "hybrid" representation of the document. We learn a
relevance score for the document using this hybrid representation. Using four
large-scale benchmarks, we show that DREQ outperforms state-of-the-art neural
and non-neural re-ranking methods, highlighting the effectiveness of our
entity-oriented representation approach.
- Abstract(参考訳): エンティティ指向のニューラルIRモデルは大幅に進歩しているが、それらはしばしば重要なニュアンスを見落としている。
このギャップに対処するため、エンティティ指向の高密度ドキュメント再ランクモデルであるDREQを提案する。
文書表現におけるクエリ関連エンティティを強調すると同時に,関連性の低いエンティティを同時に減らし,クエリ固有のエンティティ中心のドキュメント表現を得る。
次に、このエンティティ中心の文書表現と文書のテキスト中心の表現を組み合わせて、文書の"ハイブリッド"表現を得る。
このハイブリッド表現を用いて文書の関連性スコアを学習する。
4つの大規模ベンチマークを用いて、DREQは最先端のニューラルおよび非ニューラルリグレード手法より優れており、エンティティ指向の表現手法の有効性を強調している。
関連論文リスト
- Generative Retrieval Meets Multi-Graded Relevance [104.75244721442756]
GRADed Generative Retrieval (GR$2$)というフレームワークを紹介します。
GR$2$は2つの重要なコンポーネントに焦点を当てている。
マルチグレードとバイナリの関連性を持つデータセットの実験は,GR$2$の有効性を示した。
論文 参考訳(メタデータ) (2024-09-27T02:55:53Z) - Hypergraph based Understanding for Document Semantic Entity Recognition [65.84258776834524]
我々は,ハイパグラフアテンションを利用したハイパグラフアテンション文書セマンティックエンティティ認識フレームワークHGAを構築し,エンティティ境界とエンティティカテゴリを同時に重視する。
FUNSD, CORD, XFUNDIE で得られた結果は,本手法が意味的エンティティ認識タスクの性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-09T14:35:49Z) - CAPSTONE: Curriculum Sampling for Dense Retrieval with Document
Expansion [68.19934563919192]
本稿では,学習中に擬似クエリを利用して,生成したクエリと実際のクエリとの関係を徐々に向上させるカリキュラムサンプリング戦略を提案する。
ドメイン内およびドメイン外両方のデータセットに対する実験結果から,本手法が従来の高密度検索モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-18T15:57:46Z) - Learning Diverse Document Representations with Deep Query Interactions
for Dense Retrieval [79.37614949970013]
そこで本研究では,問合せの深い文書表現を学習する高密度検索モデルを提案する。
本モデルでは,各文書に生成した擬似クエリをエンコードして,クエリインフォームド・マルチビュー文書表現を得る。
論文 参考訳(メタデータ) (2022-08-08T16:00:55Z) - Relation-Specific Attentions over Entity Mentions for Enhanced
Document-Level Relation Extraction [4.685620089585031]
本稿では,候補関係に関して,異なるエンティティの言及に対して選択的に注目するRSMANを提案する。
2つのベンチマークデータセットによる実験により、RSMANはいくつかのバックボーンモデルに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-28T10:40:31Z) - Document-Level Relation Extraction with Sentences Importance Estimation
and Focusing [52.069206266557266]
文書レベルの関係抽出(DocRE)は、複数の文の文書から2つのエンティティ間の関係を決定することを目的としている。
我々はDocREのための文重要度スコアと文集中損失を設計するSIEF(Sentence Estimation and Focusing)フレームワークを提案する。
2つのドメインの実験結果から、SIEFは全体的なパフォーマンスを改善するだけでなく、DocREモデルをより堅牢にします。
論文 参考訳(メタデータ) (2022-04-27T03:20:07Z) - Augmenting Document Representations for Dense Retrieval with
Interpolation and Perturbation [49.940525611640346]
ドキュメント拡張(Document Augmentation for dense Retrieval)フレームワークは、ドキュメントの表現をDense Augmentationとperturbationsで強化する。
2つのベンチマークデータセットによる検索タスクにおけるDARの性能評価を行い、ラベル付き文書とラベルなし文書の密集検索において、提案したDARが関連するベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-03-15T09:07:38Z) - CODER: An efficient framework for improving retrieval through
COntextualized Document Embedding Reranking [11.635294568328625]
本稿では,最小計算コストで広範囲の検索モデルの性能を向上させるためのフレームワークを提案する。
ベース密度検索法により抽出された事前計算された文書表現を利用する。
実行時に第一段階のメソッドの上に無視可能な計算オーバーヘッドを発生させ、最先端の高密度検索手法と簡単に組み合わせられるようにする。
論文 参考訳(メタデータ) (2021-12-16T10:25:26Z) - Improving Query Representations for Dense Retrieval with Pseudo
Relevance Feedback [29.719150565643965]
本稿では,疑似関連性フィードバック(PRF)を用いて高密度検索のためのクエリ表現を改善する新しいクエリエンコーダであるANCE-PRFを提案する。
ANCE-PRF は BERT エンコーダを使用し、検索モデルである ANCE からクエリとトップ検索されたドキュメントを消費し、関連ラベルから直接クエリの埋め込みを生成する。
PRFエンコーダは、学習された注意機構でノイズを無視しながら、PRF文書から関連および補完的な情報を効果的にキャプチャする。
論文 参考訳(メタデータ) (2021-08-30T18:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。