論文の概要: Recommending Multiple Positive Citations for Manuscript via
Content-Dependent Modeling and Multi-Positive Triplet
- arxiv url: http://arxiv.org/abs/2111.12899v1
- Date: Thu, 25 Nov 2021 04:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 23:58:46.702202
- Title: Recommending Multiple Positive Citations for Manuscript via
Content-Dependent Modeling and Multi-Positive Triplet
- Title(参考訳): コンテンツ依存モデリングと多重正三重項による写本の複数正の引用を推奨する
- Authors: Yang Zhang and Qiang Ma
- Abstract要約: 我々は、引用推薦のための新しい科学的論文モデリング、すなわち、Citation Recommendationのための多陽性BERTモデル(MP-BERT4CR)を提案する。
提案手法には次のような利点がある: まず、提案された多陽性目的は複数の正の候補を推薦するのに効果的である。
MP-BERT4CRは、過去のものと比べ歴史的に低い頻度の共引用ペアの完全なリストを取得するのにも有効である。
- 参考スコア(独自算出の注目度): 6.7854900381386845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Considering the rapidly increasing number of academic papers, searching for
and citing appropriate references has become a non-trial task during the wiring
of papers. Recommending a handful of candidate papers to a manuscript before
publication could ease the burden of the authors, and help the reviewers to
check the completeness of the cited resources. Conventional approaches on
citation recommendation generally consider recommending one ground-truth
citation for a query context from an input manuscript, but lack of
consideration on co-citation recommendations. However, a piece of context often
needs to be supported by two or more co-citation pairs. Here, we propose a
novel scientific paper modeling for citation recommendations, namely
Multi-Positive BERT Model for Citation Recommendation (MP-BERT4CR), complied
with a series of Multi-Positive Triplet objectives to recommend multiple
positive citations for a query context. The proposed approach has the following
advantages: First, the proposed multi-positive objectives are effective to
recommend multiple positive candidates. Second, we adopt noise distributions
which are built based on the historical co-citation frequencies, so that
MP-BERT4CR is not only effective on recommending high-frequent co-citation
pairs; but also the performances on retrieving the low-frequent ones are
significantly improved. Third, we propose a dynamic context sampling strategy
which captures the ``macro-scoped'' citing intents from a manuscript and
empowers the citation embeddings to be content-dependent, which allow the
algorithm to further improve the performances. Single and multiple positive
recommendation experiments testified that MP-BERT4CR delivered significant
improvements. In addition, MP-BERT4CR are also effective in retrieving the full
list of co-citations, and historically low-frequent co-citation pairs compared
with the prior works.
- Abstract(参考訳): 学術論文の急速な増加を考えると、適切な参考文献の検索と引用は、論文の配線において非裁判的課題となっている。
出版前に一握りの候補論文を原稿に推薦することは、著者の負担を軽減し、レビュアーが引用したリソースの完全性を確認するのに役立つ。
引用レコメンデーションに関する従来のアプローチでは、入力原稿からのクエリコンテキストに対して1つの基底的引用を推奨することが一般的だが、共引用レコメンデーションには考慮されていない。
しかし、文脈の一部はしばしば2つ以上の共励対によって支持される必要がある。
そこで本稿では,複数の肯定的三重項をクエリコンテキストに対して推薦するために,複数の肯定的三重項目的を補完するマルチポジティブbertモデル(mp-bert4cr)を提案する。
提案手法には次のような利点がある: まず、提案された多陽性目的は複数の正の候補を推薦するのに効果的である。
第2に,過去の共励周波数に基づいて構築した雑音分布を採用することで,mp-bert4crは高頻度共励ペアの推薦に有効であるだけでなく,低頻度の共励ペアの検索における性能も大幅に向上する。
第3に,原稿の意図を引用した‘macro-scoped’を抽出し,引用埋め込みをコンテンツ依存にすることで,アルゴリズムによる性能向上を実現する動的コンテキストサンプリング戦略を提案する。
MP-BERT4CRが大幅に改善したことを、単体および複数回の肯定的な推奨実験が証明した。
加えて、MP-BERT4CRは、過去のものと比べ歴史的に低い頻度の共引用ペアの完全なリストを取得するのにも有効である。
関連論文リスト
- JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - ALiiCE: Evaluating Positional Fine-grained Citation Generation [54.19617927314975]
本稿では,微細な引用生成のための最初の自動評価フレームワークであるALiiCEを提案する。
我々のフレームワークはまず、文のクレームを依存性分析によって原子クレームに解析し、次に原子クレームレベルでの引用品質を計算する。
複数大言語モデルの2つの長文QAデータセット上での位置的きめ細かな引用生成性能を評価する。
論文 参考訳(メタデータ) (2024-06-19T09:16:14Z) - ILCiteR: Evidence-grounded Interpretable Local Citation Recommendation [31.259805200946175]
本稿では,特定の論文を推薦するための証拠を対象とする,根拠に基づく局所引用推薦タスクを紹介する。
単にレコメンデーションを出力する過去の定式化とは異なり、ICCiteRはエビデンスのリストとレコメンデーションペーパーのペアを検索する。
本研究では,エビデンスに基づく局所的引用推薦タスクのための新しいデータセットを提供し,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-03-13T17:38:05Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - QuoteR: A Benchmark of Quote Recommendation for Writing [80.83859760380616]
QuoteRと呼ばれる大規模かつ完全にオープンな引用レコメンデーションデータセットを構築します。
我々はQuoteR上で既存の引用レコメンデーション手法を広範囲に評価する。
提案手法は,QuoteRの3つの部分すべてにおいて,従来の手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-02-26T14:01:44Z) - Learning Neural Textual Representations for Citation Recommendation [7.227232362460348]
サブモジュラースコアリング機能において,シームズとトリプルトネットワークを併用した文書(センテンス-BERT)の深部表現を用いた引用推薦手法を提案する。
我々の知る限りでは、これは引用推薦のタスクに対して、ディープ表現とサブモジュラー選択を組み合わせるための最初のアプローチである。
論文 参考訳(メタデータ) (2020-07-08T12:38:50Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z) - HybridCite: A Hybrid Model for Context-Aware Citation Recommendation [0.0]
我々は,埋め込み,トピックモデリング,情報検索技術に基づく引用推薦手法を開発した。
私たちは、私たちの知る限りでは初めて、最高のパフォーマンスのアルゴリズムを半遺伝的ハイブリッドレコメンデータシステムに組み合わせました。
評価の結果,埋め込みと情報検索を併用したハイブリッドモデルでは,個々のコンポーネントやアルゴリズムよりも大きなマージンで性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-02-15T16:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。