論文の概要: When Large Language Models Meet Citation: A Survey
- arxiv url: http://arxiv.org/abs/2309.09727v1
- Date: Mon, 18 Sep 2023 12:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:30:58.265417
- Title: When Large Language Models Meet Citation: A Survey
- Title(参考訳): 大きな言語モデルが引用を満たすとき:調査
- Authors: Yang Zhang, Yufei Wang, Kai Wang, Quan Z. Sheng, Lina Yao, Adnan
Mahmood, Wei Emma Zhang and Rongying Zhao
- Abstract要約: 大規模言語モデル(LLM)は、対応するテキストコンテキストを介して詳細な引用情報を取得するのに役立つ。
キュリオシティはまた、科学論文間のつながりを確立し、高品質な文書間関係を提供する。
本稿では, 引用分類, 引用に基づく要約, 引用レコメンデーションを含む, テキスト内引用分析タスクへのLLMの適用について概説する。
- 参考スコア(独自算出の注目度): 37.01594297337486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Citations in scholarly work serve the essential purpose of acknowledging and
crediting the original sources of knowledge that have been incorporated or
referenced. Depending on their surrounding textual context, these citations are
used for different motivations and purposes. Large Language Models (LLMs) could
be helpful in capturing these fine-grained citation information via the
corresponding textual context, thereby enabling a better understanding towards
the literature. Furthermore, these citations also establish connections among
scientific papers, providing high-quality inter-document relationships and
human-constructed knowledge. Such information could be incorporated into LLMs
pre-training and improve the text representation in LLMs. Therefore, in this
paper, we offer a preliminary review of the mutually beneficial relationship
between LLMs and citation analysis. Specifically, we review the application of
LLMs for in-text citation analysis tasks, including citation classification,
citation-based summarization, and citation recommendation. We then summarize
the research pertinent to leveraging citation linkage knowledge to improve text
representations of LLMs via citation prediction, network structure information,
and inter-document relationship. We finally provide an overview of these
contemporary methods and put forth potential promising avenues in combining
LLMs and citation analysis for further investigation.
- Abstract(参考訳): 学術作品における引用は、組み込まれたり、参照された知識の原典を承認し、信用するために必要な目的である。
周囲のテクストの文脈によって、これらの引用は異なる動機や目的のために使用される。
大きな言語モデル(llm)は、対応するテキストコンテキストを通じてこれらのきめ細かい引用情報を取得するのに役立つので、文学に対する理解を深めることができる。
さらに、これらの引用は科学論文間のつながりを確立し、高品質な文書間関係と人間の構築された知識を提供する。
このような情報は LLM の事前学習に組み込むことができ、LLM のテキスト表現を改善した。
そこで本稿では,llmと引用分析の相互に有益な関係を予備的に検討する。
具体的には,引用分類,引用に基づく要約,引用推薦など,テキスト内引用分析タスクに対するllmの適用について検討する。
次に、引用リンク知識を活用して、引用予測、ネットワーク構造情報、文書間関係を通じてllmのテキスト表現を改善する研究をまとめる。
最終的に、これらの現代的手法の概要を述べ、LLMと引用分析を組み合わせてさらなる研究を行うための有望な方法を提案する。
関連論文リスト
- An Anchor Learning Approach for Citation Field Learning [23.507104046870186]
本稿では,励磁場学習性能を向上させるための新しいアルゴリズムCIFALを提案する。
実験により、CIFALは励磁場学習において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-09-07T08:42:40Z) - Eva-KELLM: A New Benchmark for Evaluating Knowledge Editing of LLMs [54.22416829200613]
Eva-KELLMは、大規模言語モデルの知識編集を評価するための新しいベンチマークである。
実験結果から, 生文書を用いた知識編集手法は, 良好な結果を得るには有効ではないことが示唆された。
論文 参考訳(メタデータ) (2023-08-19T09:17:19Z) - Mind your Language (Model): Fact-Checking LLMs and their Role in NLP
Research and Practice [91.20332726935992]
本稿では, LLM の定義に寄与し, それらの機能に関する仮定をいくつか説明し, それらに対する既存の証拠を概説する。
我々は今後の研究の方向性とフレーミングについて提案する。
論文 参考訳(メタデータ) (2023-08-14T13:00:53Z) - Enabling Large Language Models to Generate Text with Citations [20.403703478151186]
大規模言語モデル (LLM) は情報検索のツールとして広く利用されているが、その生成した出力は幻覚の傾向にある。
我々は,LLMが引用文を生成できるようにし,その事実の正しさと妥当性を向上させることを目的としている。
既存の作業は主に商用検索エンジンと人的評価に依存しており、異なるモデリング手法を再現し比較することは困難である。
論文 参考訳(メタデータ) (2023-05-24T01:53:49Z) - Inline Citation Classification using Peripheral Context and
Time-evolving Augmentation [23.88211560188731]
本稿では,引用文を用いた談話情報を提供する3Cextという新しいデータセットを提案する。
周辺文とドメイン知識を融合したトランスフォーマーベースのディープニューラルネットワークPeriCiteを提案する。
論文 参考訳(メタデータ) (2023-03-01T09:11:07Z) - Towards generating citation sentences for multiple references with
intent control [86.53829532976303]
We build a novel generation model with the Fusion-in-Decoder approach to handlee with multiple long inputs。
実験により,提案手法は引用文を生成するためのより包括的な特徴を提供することが示された。
論文 参考訳(メタデータ) (2021-12-02T15:32:24Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - Dual Attention Model for Citation Recommendation [7.244791479777266]
我々は「引用レコメンデーションのためのデュアルアテンションモデル」と呼ばれる新しい埋め込み型ニューラルネットワークを提案する。
ニューラルネットワークは、3つの入力(ローカルコンテキストワード、セクション、構造コンテキスト)の埋め込みと、コンテキストに現れる対象の引用との類似性を最大化するように設計されている。
論文 参考訳(メタデータ) (2020-10-01T02:41:47Z) - Virtual Proximity Citation (VCP): A Supervised Deep Learning Method to
Relate Uncited Papers On Grounds of Citation Proximity [0.0]
本稿では,仮想Citation Proximity (VCP) のアプローチについて議論する。
文書中の2つの引用の間の実際の距離は、基礎的な真実として使用される。
これは、2つの文書間の関連性を計算するために、たとえ文書が暗唱されていなくても、近接して引用されたであろう方法で計算することができる。
論文 参考訳(メタデータ) (2020-09-25T12:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。