論文の概要: When Large Language Models Meet Citation: A Survey
- arxiv url: http://arxiv.org/abs/2309.09727v1
- Date: Mon, 18 Sep 2023 12:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:30:58.265417
- Title: When Large Language Models Meet Citation: A Survey
- Title(参考訳): 大きな言語モデルが引用を満たすとき:調査
- Authors: Yang Zhang, Yufei Wang, Kai Wang, Quan Z. Sheng, Lina Yao, Adnan
Mahmood, Wei Emma Zhang and Rongying Zhao
- Abstract要約: 大規模言語モデル(LLM)は、対応するテキストコンテキストを介して詳細な引用情報を取得するのに役立つ。
キュリオシティはまた、科学論文間のつながりを確立し、高品質な文書間関係を提供する。
本稿では, 引用分類, 引用に基づく要約, 引用レコメンデーションを含む, テキスト内引用分析タスクへのLLMの適用について概説する。
- 参考スコア(独自算出の注目度): 37.01594297337486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Citations in scholarly work serve the essential purpose of acknowledging and
crediting the original sources of knowledge that have been incorporated or
referenced. Depending on their surrounding textual context, these citations are
used for different motivations and purposes. Large Language Models (LLMs) could
be helpful in capturing these fine-grained citation information via the
corresponding textual context, thereby enabling a better understanding towards
the literature. Furthermore, these citations also establish connections among
scientific papers, providing high-quality inter-document relationships and
human-constructed knowledge. Such information could be incorporated into LLMs
pre-training and improve the text representation in LLMs. Therefore, in this
paper, we offer a preliminary review of the mutually beneficial relationship
between LLMs and citation analysis. Specifically, we review the application of
LLMs for in-text citation analysis tasks, including citation classification,
citation-based summarization, and citation recommendation. We then summarize
the research pertinent to leveraging citation linkage knowledge to improve text
representations of LLMs via citation prediction, network structure information,
and inter-document relationship. We finally provide an overview of these
contemporary methods and put forth potential promising avenues in combining
LLMs and citation analysis for further investigation.
- Abstract(参考訳): 学術作品における引用は、組み込まれたり、参照された知識の原典を承認し、信用するために必要な目的である。
周囲のテクストの文脈によって、これらの引用は異なる動機や目的のために使用される。
大きな言語モデル(llm)は、対応するテキストコンテキストを通じてこれらのきめ細かい引用情報を取得するのに役立つので、文学に対する理解を深めることができる。
さらに、これらの引用は科学論文間のつながりを確立し、高品質な文書間関係と人間の構築された知識を提供する。
このような情報は LLM の事前学習に組み込むことができ、LLM のテキスト表現を改善した。
そこで本稿では,llmと引用分析の相互に有益な関係を予備的に検討する。
具体的には,引用分類,引用に基づく要約,引用推薦など,テキスト内引用分析タスクに対するllmの適用について検討する。
次に、引用リンク知識を活用して、引用予測、ネットワーク構造情報、文書間関係を通じてllmのテキスト表現を改善する研究をまとめる。
最終的に、これらの現代的手法の概要を述べ、LLMと引用分析を組み合わせてさらなる研究を行うための有望な方法を提案する。
関連論文リスト
- HLM-Cite: Hybrid Language Model Workflow for Text-based Scientific Citation Prediction [14.731720495144112]
本稿では,表面的な言及を超越した批判的参照を識別する,コア引用という新しい概念を紹介する。
我々は、引用予測のための$textbfH$ybrid $textbfL$anguage $textbfM$odelワークフローである$textbfHLM-Citeを提案する。
我々はHLM-Citeを19分野にわたって評価し,SOTA法と比較して17.6%の性能向上を示した。
論文 参考訳(メタデータ) (2024-10-10T10:46:06Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Verifiable Generation with Subsentence-Level Fine-Grained Citations [13.931548733211436]
検証可能な生成には、出力をサポートするソースドキュメントを引用するために、大きな言語モデルが必要である。
先行研究は主に文レベルの引用の生成を目標としており、引用された情報源によって文のどの部分が裏付けられているかの特異性が欠如している。
本研究は, サブ文レベルのきめ細かな引用による生成を検証し, 引用元が支持する生成コンテンツのより正確な位置について検討する。
論文 参考訳(メタデータ) (2024-06-10T09:32:37Z) - Large Language Models Reflect Human Citation Patterns with a Heightened Citation Bias [1.7812428873698407]
サイテーションの実践は科学的知識の構造を形成するのに不可欠であるが、それらは現代の規範や偏見の影響を受けていることが多い。
LLM(Large Language Models)の出現は、これらのプラクティスに新たなダイナミクスをもたらす。
本稿では,これらの特徴を,AAAI,NeurIPS,ICML,ICLRのデータセットを用いて解析する。
論文 参考訳(メタデータ) (2024-05-24T17:34:32Z) - Context-Enhanced Language Models for Generating Multi-Paper Citations [35.80247519023821]
本稿では,Large Language Models (LLMs) を用いて多文文を生成する手法を提案する。
提案手法は,複数文の引用文を含むコヒーレントな段落に終止符を打つ,単一のソース・ペーパーと対象論文の集合を包含する。
論文 参考訳(メタデータ) (2024-04-22T04:30:36Z) - Source-Aware Training Enables Knowledge Attribution in Language Models [81.13048060332775]
固有のソースの引用は透明性、解釈可能性、検証可能性を高めることができる。
我々のトレーニングレシピは、モデルの難易度に大きな影響を与えることなく、事前学習データへの忠実な帰属を可能にする。
論文 参考訳(メタデータ) (2024-04-01T09:39:38Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Effective Large Language Model Adaptation for Improved Grounding and Citation Generation [48.07830615309543]
本稿では,検索した文の応答を基底にして,引用を提供することにより,大規模言語モデル(LLM)の改善に焦点を当てる。
我々は、全体論的観点から基盤を改善する新しいフレームワーク AGREE を提案する。
我々のフレームワークは, LLMを調整し, その要求を自己評価し, 検索した文書に正確な引用を提供する。
論文 参考訳(メタデータ) (2023-11-16T03:22:25Z) - Enabling Large Language Models to Generate Text with Citations [37.64884969997378]
大規模言語モデル (LLM) は情報検索のツールとして広く使われている。
我々の目的は、LLMが引用文を生成できるようにし、その事実の正しさと妥当性を向上させることである。
自動LLMのCitation Evaluationのための最初のベンチマークであるALCEを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:53:49Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。