論文の概要: Neural document expansion for ad-hoc information retrieval
- arxiv url: http://arxiv.org/abs/2012.14005v1
- Date: Sun, 27 Dec 2020 20:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-24 20:28:24.173911
- Title: Neural document expansion for ad-hoc information retrieval
- Title(参考訳): アドホック情報検索のためのニューラル文書拡張
- Authors: Cheng Tang, Andrew Arnold
- Abstract要約: ニューラルなSeq2Seqモデルに基づく文書拡張の新たなアプローチを提案し,短いテキスト検索タスクにおいて有意な改善を示した。
本稿では,このニューラル文書拡張手法が,ラベルが乏しく,多くの長い文書が存在する標準IRタスクに効果的に適用可能であることを示す。
- 参考スコア(独自算出の注目度): 9.329733037088191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Nogueira et al. [2019] proposed a new approach to document
expansion based on a neural Seq2Seq model, showing significant improvement on
short text retrieval task. However, this approach needs a large amount of
in-domain training data. In this paper, we show that this neural document
expansion approach can be effectively adapted to standard IR tasks, where
labels are scarce and many long documents are present.
- Abstract(参考訳): 最近nogueiraとal。
[2019] は,ニューラルSeq2Seqモデルに基づく文書拡張のための新しい手法を提案し,短いテキスト検索タスクに大きな改善を加えた。
しかし、このアプローチには大量のドメイン内のトレーニングデータが必要です。
本稿では,このニューラル文書拡張手法が,ラベルが乏しく,多くの長い文書が存在する標準IRタスクに効果的に適用可能であることを示す。
関連論文リスト
- DocMamba: Efficient Document Pre-training with State Space Model [56.84200017560988]
本稿では,状態空間モデルに基づく新しいフレームワークDocMambaを紹介する。
グローバルなモデリング能力を保ちながら、計算複雑性を線形に減らすように設計されている。
HRDocの実験では、DocMambaの長さ外挿の可能性が確認された。
論文 参考訳(メタデータ) (2024-09-18T11:34:28Z) - A Lightweight Constrained Generation Alternative for Query-focused
Summarization [8.264410236351111]
クエリ中心の要約(QFS)は、あるクエリの必要な情報を満たすドキュメントの要約を提供することを目的としている。
我々は,最近開発された制約付き世代モデルニューロロジカルデコーディング(NLD)を,現在のQFS方式の代替として活用することを提案する。
本稿では,2つの公開QFSコレクションに対するこのアプローチの有効性を,複雑性を著しく低減した最先端モデルとほぼ同等に示す。
論文 参考訳(メタデータ) (2023-04-23T18:43:48Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - Few-Shot Document-Level Event Argument Extraction [2.680014762694412]
イベント引数抽出(EAE)は文レベルではよく研究されているが、文書レベルでは未探索である。
FewDocAE は Few-Shot Document-Level Event Argument extract ベンチマークである。
論文 参考訳(メタデータ) (2022-09-06T03:57:23Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Augmenting Document Representations for Dense Retrieval with
Interpolation and Perturbation [49.940525611640346]
ドキュメント拡張(Document Augmentation for dense Retrieval)フレームワークは、ドキュメントの表現をDense Augmentationとperturbationsで強化する。
2つのベンチマークデータセットによる検索タスクにおけるDARの性能評価を行い、ラベル付き文書とラベルなし文書の密集検索において、提案したDARが関連するベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-03-15T09:07:38Z) - Community-Detection via Hashtag-Graphs for Semi-Supervised NMF Topic
Models [0.0]
本稿では,ハッシュタググラフのトピック構造をトピックモデルに組み込む手法について概説する。
最近ストリーミングされたTwitterのデータにこのアプローチを適用することで、この手順がより直感的で人間的に解釈可能なトピックにつながることが分かるだろう。
論文 参考訳(メタデータ) (2021-11-17T12:52:16Z) - A Span Extraction Approach for Information Extraction on Visually-Rich
Documents [2.3131309703965135]
視覚豊かな文書(VRD)を事前学習する言語モデルの能力向上のための新しいアプローチを提案する。
まず、クエリベースの新しいIEモデルを導入し、一般的に使用されるシーケンスラベリングアプローチの代わりにスパン抽出の定式化を採用する。
また、文書内の意味的エンティティ間の関係をモデル化することに焦点を当てた新しいトレーニングタスクを提案する。
論文 参考訳(メタデータ) (2021-06-02T06:50:04Z) - Focused Attention Improves Document-Grounded Generation [111.42360617630669]
文書基盤生成は、文書に提供される情報を用いてテキスト生成を改善するタスクである。
本研究はwikipedia更新生成タスクと対話応答生成という2つの異なる文書基底生成タスクに焦点を当てている。
論文 参考訳(メタデータ) (2021-04-26T16:56:29Z) - Enhancing Extractive Text Summarization with Topic-Aware Graph Neural
Networks [21.379555672973975]
本稿では,グラフニューラルネットワーク(GNN)に基づく抽出要約モデルを提案する。
本モデルでは,文章選択のための文書レベルの特徴を提供する潜在トピックを発見するために,共同ニューラルトピックモデル(NTM)を統合している。
実験結果から,CNN/DMおよびNYTデータセットにおいて,本モデルがほぼ最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T09:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。