論文の概要: Local Citation Recommendation with Hierarchical-Attention Text Encoder
and SciBERT-based Reranking
- arxiv url: http://arxiv.org/abs/2112.01206v1
- Date: Thu, 2 Dec 2021 13:20:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:06:03.868932
- Title: Local Citation Recommendation with Hierarchical-Attention Text Encoder
and SciBERT-based Reranking
- Title(参考訳): 階層型テキストエンコーダとSciBERTに基づく再分類による局所的引用
- Authors: Nianlong Gu, Yingqiang Gao, Richard H.R. Hahnloser
- Abstract要約: BM25はプレフェッチの難しいアプローチであることが判明した。
本稿では,階層型アテンションネットワークによって構築されたテキスト埋め込みの近傍探索によるプレフェッチについて検討する。
SciBERTリランカと組み合わせて、局所的な引用推薦タスクを微調整すると、階層的アテンションエンコーダ(Hatten)は、与えられた候補がリランクされる前に、高いプレフェッチリコールを行う。
- 参考スコア(独自算出の注目度): 6.456347800676685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of local citation recommendation is to recommend a missing reference
from the local citation context and optionally also from the global context. To
balance the tradeoff between speed and accuracy of citation recommendation in
the context of a large-scale paper database, a viable approach is to first
prefetch a limited number of relevant documents using efficient ranking methods
and then to perform a fine-grained reranking using more sophisticated models.
In that vein, BM25 has been found to be a tough-to-beat approach to
prefetching, which is why recent work has focused mainly on the reranking step.
Even so, we explore prefetching with nearest neighbor search among text
embeddings constructed by a hierarchical attention network. When coupled with a
SciBERT reranker fine-tuned on local citation recommendation tasks, our
hierarchical Attention encoder (HAtten) achieves high prefetch recall for a
given number of candidates to be reranked. Consequently, our reranker needs to
rerank fewer prefetch candidates, yet still achieves state-of-the-art
performance on various local citation recommendation datasets such as ACL-200,
FullTextPeerRead, RefSeer, and arXiv.
- Abstract(参考訳): ローカルな引用レコメンデーションの目標は、ローカルな引用コンテキストから、グローバルなコンテキストからも、欠落した参照を推奨することである。
大規模論文データベースの文脈において、引用推薦のスピードと精度のトレードオフをバランスさせるために、効率的なランキング手法を用いて、まず限られた数の関連文書をプリフェッチし、さらにより洗練されたモデルを用いてきめ細かいリグレードを行う。
その過程で、bm25はプレフェッチングに対する強烈なアプローチであることが分かっています。
さらに,階層型アテンションネットワークによって構築されたテキスト埋め込みの近傍探索によるプレフェッチについて検討する。
局所的な引用レコメンデーションタスクを微調整したscibert rerankerと組み合わせると、階層的アテンションエンコーダ(hatten)は、指定された数の候補に対して高いプリフェッチリコールを達成します。
その結果、リランカはプリフェッチ候補を減らす必要があるが、ACL-200、FullTextPeerRead、RefSeer、arXivなど、さまざまなローカルな引用レコメンデーションデータセットで最先端のパフォーマンスを実現している。
関連論文リスト
- Quam: Adaptive Retrieval through Query Affinity Modelling [15.3583908068962]
ユーザ情報要求に基づいて文書をランク付けする関連モデルを構築することは,情報検索とNLPコミュニティの中心的な課題である。
提案するQuamにより,適応検索の初期段階の統一的な視点を提案する。
提案手法であるQuamは,リコール性能を26%向上させる。
論文 参考訳(メタデータ) (2024-10-26T22:52:12Z) - Adaptive Query Rewriting: Aligning Rewriters through Marginal Probability of Conversational Answers [66.55612528039894]
AdaQRは、シードデータセットからの限定的な書き直しアノテーションと完全にパスラベルのないクエリ書き換えモデルをトレーニングするフレームワークである。
会話クエリに条件付き回答の確率を用いて,これらの候補に対する検索者の嗜好を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T16:09:05Z) - Top-Down Partitioning for Efficient List-Wise Ranking [24.600506147325717]
本稿では、ランクを深さkに分割し、文書をトップダウンで処理する新しいアルゴリズムを提案する。
このアルゴリズムは、文書から任意の深さまでを同時に比較できるピボット要素を用いることにより、本質的に並列化可能である。
論文 参考訳(メタデータ) (2024-05-23T14:00:26Z) - ILCiteR: Evidence-grounded Interpretable Local Citation Recommendation [31.259805200946175]
本稿では,特定の論文を推薦するための証拠を対象とする,根拠に基づく局所引用推薦タスクを紹介する。
単にレコメンデーションを出力する過去の定式化とは異なり、ICCiteRはエビデンスのリストとレコメンデーションペーパーのペアを検索する。
本研究では,エビデンスに基づく局所的引用推薦タスクのための新しいデータセットを提供し,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-03-13T17:38:05Z) - Lexically-Accelerated Dense Retrieval [29.327878974130055]
LADR (Lexically-Accelerated Dense Retrieval) は, 既存の高密度検索モデルの効率を向上する, 簡便な手法である。
LADRは、標準ベンチマークでの徹底的な検索と同等の精度とリコールの両方を一貫して達成する。
論文 参考訳(メタデータ) (2023-07-31T15:44:26Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Progressive End-to-End Object Detection in Crowded Scenes [96.92416613336096]
以前のクエリベースの検出器は2つの欠点に悩まされていた: まず、複数の予測が1つのオブジェクトに対して推論される。
具体的には、まず受理されたクエリを選択して正の予測を生成し、その後、受理された予測に従って残雑音のあるクエリを精査する。
提案手法は,混み合ったシーンにおける問合せ型検出器の性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-15T06:12:00Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Learning Neural Textual Representations for Citation Recommendation [7.227232362460348]
サブモジュラースコアリング機能において,シームズとトリプルトネットワークを併用した文書(センテンス-BERT)の深部表現を用いた引用推薦手法を提案する。
我々の知る限りでは、これは引用推薦のタスクに対して、ディープ表現とサブモジュラー選択を組み合わせるための最初のアプローチである。
論文 参考訳(メタデータ) (2020-07-08T12:38:50Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。