論文の概要: Towards generating citation sentences for multiple references with
intent control
- arxiv url: http://arxiv.org/abs/2112.01332v1
- Date: Thu, 2 Dec 2021 15:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 14:59:14.432917
- Title: Towards generating citation sentences for multiple references with
intent control
- Title(参考訳): 意図制御を用いた複数文献の引用文生成の試み
- Authors: Jia-Yan Wu, Alexander Te-Wei Shieh, Shih-Ju Hsu, Yun-Nung Chen
- Abstract要約: We build a novel generation model with the Fusion-in-Decoder approach to handlee with multiple long inputs。
実験により,提案手法は引用文を生成するためのより包括的な特徴を提供することが示された。
- 参考スコア(独自算出の注目度): 86.53829532976303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-generated citation sentences can aid automated scientific literature
review and assist article writing. Current methods in generating citation text
were limited to single citation generation using the citing document and a
cited document as input. However, in real-world situations, writers often
summarize several studies in one sentence or discuss relevant information
across the entire paragraph. In addition, multiple citation intents have been
previously identified, implying that writers may need control over the intents
of generated sentences to cover different scenarios. Therefore, this work
focuses on generating multiple citations and releasing a newly collected
dataset named CiteMI to drive the future research. We first build a novel
generation model with the Fusion-in-Decoder approach to cope with multiple long
inputs. Second, we incorporate the predicted citation intents into training for
intent control. The experiments demonstrate that the proposed approaches
provide much more comprehensive features for generating citation sentences.
- Abstract(参考訳): 機械生成の引用文は、自動科学文献のレビューと記事執筆を支援することができる。
現在の引用テキスト生成方法は引用文書と引用文書を入力として単一の引用文生成に制限されていた。
しかし、現実の状況では、著者は複数の研究を1文で要約したり、段落全体を通して関連する情報を議論することが多い。
さらに、これまで複数の引用意図が特定されており、異なるシナリオをカバーするために生成された文の意図を制御する必要があることを示唆している。
そこで本研究では,複数の引用文の生成と,新たに収集したcitemiというデータセットの公開に注目する。
まず、複数の長い入力に対応するためにFusion-in-Decoderアプローチを用いて新しい生成モデルを構築する。
第2に,予測された引用意図をインテント制御のためのトレーニングに組み込む。
実験により,提案手法は引用文を生成するためのより包括的な特徴を提供することが示された。
関連論文リスト
- ALiiCE: Evaluating Positional Fine-grained Citation Generation [54.19617927314975]
本稿では,微細な引用生成のための最初の自動評価フレームワークであるALiiCEを提案する。
我々のフレームワークはまず、文のクレームを依存性分析によって原子クレームに解析し、次に原子クレームレベルでの引用品質を計算する。
複数大言語モデルの2つの長文QAデータセット上での位置的きめ細かな引用生成性能を評価する。
論文 参考訳(メタデータ) (2024-06-19T09:16:14Z) - Context-Enhanced Language Models for Generating Multi-Paper Citations [35.80247519023821]
本稿では,Large Language Models (LLMs) を用いて多文文を生成する手法を提案する。
提案手法は,複数文の引用文を含むコヒーレントな段落に終止符を打つ,単一のソース・ペーパーと対象論文の集合を包含する。
論文 参考訳(メタデータ) (2024-04-22T04:30:36Z) - Contextualizing Generated Citation Texts [11.531517736126657]
本稿では,引用テキスト生成タスクの簡単な修正を提案する。
生成ターゲットは、引用そのものだけではなく、ターゲットの引用を含むコンテキストウィンドウ全体である。
論文 参考訳(メタデータ) (2024-02-28T05:24:21Z) - CiteCaseLAW: Citation Worthiness Detection in Caselaw for Legal
Assistive Writing [44.75251805925605]
本稿では,Caselaw Access Project (CAP) の法域における引用・安心度検出のための178万文のラベル付きデータセットを紹介する。
本論文では,様々な深層学習モデルの性能について検討した。
ドメイン固有の事前学習モデルは、他のモデルよりも優れている傾向があり、88%のF1スコアが引用-可視性検出タスクである。
論文 参考訳(メタデータ) (2023-05-03T04:20:56Z) - CiteBench: A benchmark for Scientific Citation Text Generation [69.37571393032026]
CiteBenchは引用テキスト生成のベンチマークである。
CiteBenchのコードはhttps://github.com/UKPLab/citebench.comで公開しています。
論文 参考訳(メタデータ) (2022-12-19T16:10:56Z) - Controllable Citation Sentence Generation with Language Models [11.186252009101077]
本稿では,テキストのコンテキスト,参照された論文のコンテキスト,および所望の制御属性を構造化テンプレートに統合し,次世代の予測を通じて言語モデル(LM)を微調整する手法を提案する。
提案したワークフローは、引用属性の提案と条件付き引用生成を1つのLMに調和して組み合わせ、より良いユーザ制御を実現する。
論文 参考訳(メタデータ) (2022-11-14T01:54:08Z) - Deep Graph Learning for Anomalous Citation Detection [55.81334139806342]
本稿では,新たな深層グラフ学習モデルであるGLAD(Graph Learning for Anomaly Detection)を提案する。
GLADフレームワーク内ではCPU(Citation PUrpose)と呼ばれるアルゴリズムが提案され,引用テキストに基づく引用の目的が明らかになった。
論文 参考訳(メタデータ) (2022-02-23T09:05:28Z) - MultiCite: Modeling realistic citations requires moving beyond the
single-sentence single-label setting [13.493267499658527]
我々は1200以上の計算言語学論文から12,653の引用コンテキストのデータセットであるMultiCiteをリリースした。
従来のCCAモデルのトレーニングにはまだ使用可能なデータセットが,固定幅テキスト分類以外にも,CCAの新しいタイプのモデルの開発をサポートすることを示す。
論文 参考訳(メタデータ) (2021-07-01T12:54:23Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。