論文の概要: Contextualizing Generated Citation Texts
- arxiv url: http://arxiv.org/abs/2402.18054v1
- Date: Wed, 28 Feb 2024 05:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:14:20.899718
- Title: Contextualizing Generated Citation Texts
- Title(参考訳): 生成した引用テキストの文脈化
- Authors: Biswadip Mandal, Xiangci Li, Jessica Ouyang
- Abstract要約: 本稿では,引用テキスト生成タスクの簡単な修正を提案する。
生成ターゲットは、引用そのものだけではなく、ターゲットの引用を含むコンテキストウィンドウ全体である。
- 参考スコア(独自算出の注目度): 11.531517736126657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstractive citation text generation is usually framed as an infilling task,
where a sequence-to-sequence model is trained to generate a citation given a
reference paper and the context window around the target; the generated
citation should be a brief discussion of the reference paper as it relates to
the citing context. However, examining a recent LED-based citation generation
system, we find that many of the generated citations are generic summaries of
the reference papers main contribution, ignoring the citation contexts focus on
a different topic. To address this problem, we propose a simple modification to
the citation text generation task: the generation target is not only the
citation itself, but the entire context window, including the target citation.
This approach can be easily applied to any abstractive citation generation
system, and our experimental results show that training in this way is
preferred by human readers and allows the generation model to make use of
contextual clues about what topic to discuss and what stance to take.
- Abstract(参考訳): 抽象的引用テキスト生成は、通常、参照用紙とターゲット周辺のコンテキストウインドウに与えられた引用を生成するためにシーケンス・ツー・シーケンスモデルが訓練されるインフィルディングタスクとして構成される。
しかし,最近のledを用いた引用生成システムでは,生成した引用の多くは参照論文の汎用要約であり,引用文脈が異なる話題に焦点を合わせることを無視していることがわかった。
この問題に対処するために,生成対象は引用そのものだけではなく,対象の引用を含むコンテキストウィンドウ全体である,引用テキスト生成タスクの簡単な修正を提案する。
この手法は, 抽象的な引用生成システムにも容易に適用でき, 実験結果から, この方法でのトレーニングが人間の読者に好まれることを示すとともに, 生成モデルが議論すべきトピックや取るべきスタンスについて, 文脈的手がかりを活用できることが示唆された。
関連論文リスト
- Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - ALiiCE: Evaluating Positional Fine-grained Citation Generation [54.19617927314975]
本稿では,微細な引用生成のための最初の自動評価フレームワークであるALiiCEを提案する。
我々のフレームワークはまず、文のクレームを依存性分析によって原子クレームに解析し、次に原子クレームレベルでの引用品質を計算する。
複数大言語モデルの2つの長文QAデータセット上での位置的きめ細かな引用生成性能を評価する。
論文 参考訳(メタデータ) (2024-06-19T09:16:14Z) - Context-Enhanced Language Models for Generating Multi-Paper Citations [35.80247519023821]
本稿では,Large Language Models (LLMs) を用いて多文文を生成する手法を提案する。
提案手法は,複数文の引用文を含むコヒーレントな段落に終止符を打つ,単一のソース・ペーパーと対象論文の集合を包含する。
論文 参考訳(メタデータ) (2024-04-22T04:30:36Z) - CiteBench: A benchmark for Scientific Citation Text Generation [69.37571393032026]
CiteBenchは引用テキスト生成のベンチマークである。
CiteBenchのコードはhttps://github.com/UKPLab/citebench.comで公開しています。
論文 参考訳(メタデータ) (2022-12-19T16:10:56Z) - Controllable Citation Sentence Generation with Language Models [11.186252009101077]
本稿では,テキストのコンテキスト,参照された論文のコンテキスト,および所望の制御属性を構造化テンプレートに統合し,次世代の予測を通じて言語モデル(LM)を微調整する手法を提案する。
提案したワークフローは、引用属性の提案と条件付き引用生成を1つのLMに調和して組み合わせ、より良いユーザ制御を実現する。
論文 参考訳(メタデータ) (2022-11-14T01:54:08Z) - Deep Graph Learning for Anomalous Citation Detection [55.81334139806342]
本稿では,新たな深層グラフ学習モデルであるGLAD(Graph Learning for Anomaly Detection)を提案する。
GLADフレームワーク内ではCPU(Citation PUrpose)と呼ばれるアルゴリズムが提案され,引用テキストに基づく引用の目的が明らかになった。
論文 参考訳(メタデータ) (2022-02-23T09:05:28Z) - Towards generating citation sentences for multiple references with
intent control [86.53829532976303]
We build a novel generation model with the Fusion-in-Decoder approach to handlee with multiple long inputs。
実験により,提案手法は引用文を生成するためのより包括的な特徴を提供することが示された。
論文 参考訳(メタデータ) (2021-12-02T15:32:24Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - Dual Attention Model for Citation Recommendation [7.244791479777266]
我々は「引用レコメンデーションのためのデュアルアテンションモデル」と呼ばれる新しい埋め込み型ニューラルネットワークを提案する。
ニューラルネットワークは、3つの入力(ローカルコンテキストワード、セクション、構造コンテキスト)の埋め込みと、コンテキストに現れる対象の引用との類似性を最大化するように設計されている。
論文 参考訳(メタデータ) (2020-10-01T02:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。