論文の概要: Context-Enhanced Language Models for Generating Multi-Paper Citations
- arxiv url: http://arxiv.org/abs/2404.13865v1
- Date: Mon, 22 Apr 2024 04:30:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 15:16:29.709634
- Title: Context-Enhanced Language Models for Generating Multi-Paper Citations
- Title(参考訳): コンテクスト強化型言語モデルによる複数ページ共振器の生成
- Authors: Avinash Anand, Kritarth Prasad, Ujjwal Goel, Mohit Gupta, Naman Lal, Astha Verma, Rajiv Ratn Shah,
- Abstract要約: 本稿では,Large Language Models (LLMs) を用いて多文文を生成する手法を提案する。
提案手法は,複数文の引用文を含むコヒーレントな段落に終止符を打つ,単一のソース・ペーパーと対象論文の集合を包含する。
- 参考スコア(独自算出の注目度): 35.80247519023821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Citation text plays a pivotal role in elucidating the connection between scientific documents, demanding an in-depth comprehension of the cited paper. Constructing citations is often time-consuming, requiring researchers to delve into extensive literature and grapple with articulating relevant content. To address this challenge, the field of citation text generation (CTG) has emerged. However, while earlier methods have primarily centered on creating single-sentence citations, practical scenarios frequently necessitate citing multiple papers within a single paragraph. To bridge this gap, we propose a method that leverages Large Language Models (LLMs) to generate multi-citation sentences. Our approach involves a single source paper and a collection of target papers, culminating in a coherent paragraph containing multi-sentence citation text. Furthermore, we introduce a curated dataset named MCG-S2ORC, composed of English-language academic research papers in Computer Science, showcasing multiple citation instances. In our experiments, we evaluate three LLMs LLaMA, Alpaca, and Vicuna to ascertain the most effective model for this endeavor. Additionally, we exhibit enhanced performance by integrating knowledge graphs from target papers into the prompts for generating citation text. This research underscores the potential of harnessing LLMs for citation generation, opening a compelling avenue for exploring the intricate connections between scientific documents.
- Abstract(参考訳): 引用された論文の詳細な理解を求める科学文書間の関係を解明する上で,引用文は重要な役割を担っている。
引用の作成には時間を要することが多く、研究者は広い文献を掘り下げて、関連する内容を明確に述べる必要がある。
この課題に対処するため、引用テキスト生成(CTG)の分野が出現した。
しかし、従来の手法は主に単文引用の作成に重点を置いていたが、実際的なシナリオでは1段落内に複数の論文を引用する必要があることが多い。
このギャップを埋めるために,Large Language Models (LLM) を用いて多文文を生成する手法を提案する。
提案手法は,複数文の引用文を含むコヒーレントな段落に終止符を打つ,単一のソース・ペーパーと対象論文の集合を包含する。
さらに,計算機科学における英語の学術論文からなるMCG-S2ORCというキュレートデータセットを導入し,複数の引用事例を示す。
実験では,LLaMA,Alpaca,Vicunaの3つのLLMを評価し,この取り組みにおいて最も有効なモデルを確認した。
さらに,対象論文からの知識グラフを引用文生成のプロンプトに組み込むことにより,性能の向上を図っている。
この研究は、LLMを引用生成に活用する可能性を強調し、科学文書間の複雑な関係を探求するための魅力的な道を開く。
関連論文リスト
- HLM-Cite: Hybrid Language Model Workflow for Text-based Scientific Citation Prediction [14.731720495144112]
本稿では,表面的な言及を超越した批判的参照を識別する,コア引用という新しい概念を紹介する。
我々は、引用予測のための$textbfH$ybrid $textbfL$anguage $textbfM$odelワークフローである$textbfHLM-Citeを提案する。
我々はHLM-Citeを19分野にわたって評価し,SOTA法と比較して17.6%の性能向上を示した。
論文 参考訳(メタデータ) (2024-10-10T10:46:06Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Explaining Relationships Among Research Papers [14.223038413516685]
本稿では,よりリッチな引用テキストを生成するための機能ベースのLLMプロンプト手法を提案する。
人間の好みと統合的書き方の間には強い相関関係がみられ,高いレベルの抽象的引用を好むことが示唆された。
論文 参考訳(メタデータ) (2024-02-20T23:38:39Z) - When Large Language Models Meet Citation: A Survey [37.01594297337486]
大規模言語モデル(LLM)は、対応するテキストコンテキストを介して詳細な引用情報を取得するのに役立つ。
キュリオシティはまた、科学論文間のつながりを確立し、高品質な文書間関係を提供する。
本稿では, 引用分類, 引用に基づく要約, 引用レコメンデーションを含む, テキスト内引用分析タスクへのLLMの適用について概説する。
論文 参考訳(メタデータ) (2023-09-18T12:48:48Z) - CiteBench: A benchmark for Scientific Citation Text Generation [69.37571393032026]
CiteBenchは引用テキスト生成のベンチマークである。
CiteBenchのコードはhttps://github.com/UKPLab/citebench.comで公開しています。
論文 参考訳(メタデータ) (2022-12-19T16:10:56Z) - Towards generating citation sentences for multiple references with
intent control [86.53829532976303]
We build a novel generation model with the Fusion-in-Decoder approach to handlee with multiple long inputs。
実験により,提案手法は引用文を生成するためのより包括的な特徴を提供することが示された。
論文 参考訳(メタデータ) (2021-12-02T15:32:24Z) - MultiCite: Modeling realistic citations requires moving beyond the
single-sentence single-label setting [13.493267499658527]
我々は1200以上の計算言語学論文から12,653の引用コンテキストのデータセットであるMultiCiteをリリースした。
従来のCCAモデルのトレーニングにはまだ使用可能なデータセットが,固定幅テキスト分類以外にも,CCAの新しいタイプのモデルの開発をサポートすることを示す。
論文 参考訳(メタデータ) (2021-07-01T12:54:23Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。