論文の概要: When Large Language Models Meet Citation: A Survey
- arxiv url: http://arxiv.org/abs/2309.09727v1
- Date: Mon, 18 Sep 2023 12:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:30:58.265417
- Title: When Large Language Models Meet Citation: A Survey
- Title(参考訳): 大きな言語モデルが引用を満たすとき:調査
- Authors: Yang Zhang, Yufei Wang, Kai Wang, Quan Z. Sheng, Lina Yao, Adnan
Mahmood, Wei Emma Zhang and Rongying Zhao
- Abstract要約: 大規模言語モデル(LLM)は、対応するテキストコンテキストを介して詳細な引用情報を取得するのに役立つ。
キュリオシティはまた、科学論文間のつながりを確立し、高品質な文書間関係を提供する。
本稿では, 引用分類, 引用に基づく要約, 引用レコメンデーションを含む, テキスト内引用分析タスクへのLLMの適用について概説する。
- 参考スコア(独自算出の注目度): 37.01594297337486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Citations in scholarly work serve the essential purpose of acknowledging and
crediting the original sources of knowledge that have been incorporated or
referenced. Depending on their surrounding textual context, these citations are
used for different motivations and purposes. Large Language Models (LLMs) could
be helpful in capturing these fine-grained citation information via the
corresponding textual context, thereby enabling a better understanding towards
the literature. Furthermore, these citations also establish connections among
scientific papers, providing high-quality inter-document relationships and
human-constructed knowledge. Such information could be incorporated into LLMs
pre-training and improve the text representation in LLMs. Therefore, in this
paper, we offer a preliminary review of the mutually beneficial relationship
between LLMs and citation analysis. Specifically, we review the application of
LLMs for in-text citation analysis tasks, including citation classification,
citation-based summarization, and citation recommendation. We then summarize
the research pertinent to leveraging citation linkage knowledge to improve text
representations of LLMs via citation prediction, network structure information,
and inter-document relationship. We finally provide an overview of these
contemporary methods and put forth potential promising avenues in combining
LLMs and citation analysis for further investigation.
- Abstract(参考訳): 学術作品における引用は、組み込まれたり、参照された知識の原典を承認し、信用するために必要な目的である。
周囲のテクストの文脈によって、これらの引用は異なる動機や目的のために使用される。
大きな言語モデル(llm)は、対応するテキストコンテキストを通じてこれらのきめ細かい引用情報を取得するのに役立つので、文学に対する理解を深めることができる。
さらに、これらの引用は科学論文間のつながりを確立し、高品質な文書間関係と人間の構築された知識を提供する。
このような情報は LLM の事前学習に組み込むことができ、LLM のテキスト表現を改善した。
そこで本稿では,llmと引用分析の相互に有益な関係を予備的に検討する。
具体的には,引用分類,引用に基づく要約,引用推薦など,テキスト内引用分析タスクに対するllmの適用について検討する。
次に、引用リンク知識を活用して、引用予測、ネットワーク構造情報、文書間関係を通じてllmのテキスト表現を改善する研究をまとめる。
最終的に、これらの現代的手法の概要を述べ、LLMと引用分析を組み合わせてさらなる研究を行うための有望な方法を提案する。
関連論文リスト
- Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Verifiable Generation with Subsentence-Level Fine-Grained Citations [13.931548733211436]
検証可能な生成には、出力をサポートするソースドキュメントを引用するために、大きな言語モデルが必要である。
先行研究は主に文レベルの引用の生成を目標としており、引用された情報源によって文のどの部分が裏付けられているかの特異性が欠如している。
本研究は, サブ文レベルのきめ細かな引用による生成を検証し, 引用元が支持する生成コンテンツのより正確な位置について検討する。
論文 参考訳(メタデータ) (2024-06-10T09:32:37Z) - Context-Enhanced Language Models for Generating Multi-Paper Citations [35.80247519023821]
本稿では,Large Language Models (LLMs) を用いて多文文を生成する手法を提案する。
提案手法は,複数文の引用文を含むコヒーレントな段落に終止符を打つ,単一のソース・ペーパーと対象論文の集合を包含する。
論文 参考訳(メタデータ) (2024-04-22T04:30:36Z) - Source-Aware Training Enables Knowledge Attribution in Language Models [81.13048060332775]
大規模言語モデル(LLM)は、事前訓練中に膨大な量の知識を学習するが、そのような知識の源泉にはあまり依存しないことが多い。
そこで本研究では,LLMが生成した応答をサポートする事前学習ソースを引用するために必要となる,本質的なソース引用の問題について検討する。
トレーニングレシピでは,事前学習データに対する忠実な帰属が,通常の事前学習と比較して,モデルの品質に大きな影響を与えない。
論文 参考訳(メタデータ) (2024-04-01T09:39:38Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Effective Large Language Model Adaptation for Improved Grounding and Citation Generation [48.07830615309543]
本稿では,検索した文の応答を基底にして,引用を提供することにより,大規模言語モデル(LLM)の改善に焦点を当てる。
我々は、全体論的観点から基盤を改善する新しいフレームワーク AGREE を提案する。
我々のフレームワークは, LLMを調整し, その要求を自己評価し, 検索した文書に正確な引用を提供する。
論文 参考訳(メタデータ) (2023-11-16T03:22:25Z) - Citation: A Key to Building Responsible and Accountable Large Language Models [25.671237896575693]
大規模言語モデル(LLM)は、知的財産権(IP)や倫理的関心事など、ユニークな課題と共に変革的な利益をもたらす。
本稿では、これらのリスクを軽減し、LLMと確立されたWebシステム間の並列性を図り、新しい角度を探索する。
論文 参考訳(メタデータ) (2023-07-05T10:25:45Z) - Enabling Large Language Models to Generate Text with Citations [37.64884969997378]
大規模言語モデル (LLM) は情報検索のツールとして広く使われている。
我々の目的は、LLMが引用文を生成できるようにし、その事実の正しさと妥当性を向上させることである。
自動LLMのCitation Evaluationのための最初のベンチマークであるALCEを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:53:49Z) - Inline Citation Classification using Peripheral Context and
Time-evolving Augmentation [23.88211560188731]
本稿では,引用文を用いた談話情報を提供する3Cextという新しいデータセットを提案する。
周辺文とドメイン知識を融合したトランスフォーマーベースのディープニューラルネットワークPeriCiteを提案する。
論文 参考訳(メタデータ) (2023-03-01T09:11:07Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。