論文の概要、ライセンス

# (参考訳) CiteSum: Citation Text-Guided Scientific Extreme Summarization and Low-Resource Domain Adaptation [全文訳有]

CiteSum: Citation Text-guided Scientific Extreme Summarization and Low-resource Domain Adaptation ( http://arxiv.org/abs/2205.06207v1 )

ライセンス: CC BY 4.0
Yuning Mao, Ming Zhong, Jiawei Han(参考訳) scientific extreme summarization (tldr) は、科学論文の超短い要約を形成することを目的としている。 科学的なtldrデータセットをキュレートする以前の取り組みは、大量の人間のアノテーションとドメインの専門知識のためにスケールアップに失敗した。 本稿では,その引用文から科学論文のtldr要約を自動的に抽出する手法を提案する。 提案手法に基づき,従来のscitldrの約30倍の規模である,人間のアノテーションを伴わない新たなベンチマークであるcitesumを作成した。 citesumの包括的分析を行い,そのデータ特性を調べ,強いベースラインを確立する。 さらに、CiteSum(CITES)で事前訓練されたモデルを、監督が限定された新しいタスクやドメインに適用することで、CiteSumの有用性を実証する。 科学的極端要約では、CITESは細調整なしでSciTLDRのほとんど完全に教師された手法を上回り、128の例で最先端の結果を得る。 ニュースの極端な要約では、CITESはベースモデル(CiteSumでは事前訓練されていない)、+7.2 ROUGE-1ゼロショット性能、最先端の数ショット性能など、XSumで大幅に向上した。 ニュース見出し生成において、CITESはGigawordの教師なしおよびゼロショットメソッドの中で最高の性能を発揮する。

Scientific extreme summarization (TLDR) aims to form ultra-short summaries of scientific papers. Previous efforts on curating scientific TLDR datasets failed to scale up due to the heavy human annotation and domain expertise required. In this paper, we propose a simple yet effective approach to automatically extracting TLDR summaries for scientific papers from their citation texts. Based on the proposed approach, we create a new benchmark CiteSum without human annotation, which is around 30 times larger than the previous human-curated dataset SciTLDR. We conduct a comprehensive analysis of CiteSum, examining its data characteristics and establishing strong baselines. We further demonstrate the usefulness of CiteSum by adapting models pre-trained on CiteSum (named CITES) to new tasks and domains with limited supervision. For scientific extreme summarization, CITES outperforms most fully-supervised methods on SciTLDR without any fine-tuning and obtains state-of-the-art results with only 128 examples. For news extreme summarization, CITES achieves significant gains on XSum over its base model (not pre-trained on CiteSum), e.g., +7.2 ROUGE-1 zero-shot performance and state-of-the-art few-shot performance. For news headline generation, CITES performs the best among unsupervised and zero-shot methods on Gigaword.
公開日: Thu, 12 May 2022 16:44:19 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 2 1 2 2 0 2 y a m 2 1 である。 0.52
] L C . s c [ 1 v 7 0 2 6 0 ]LC。 sc [ 1 v 7 0 2 6 0 0.30
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
CiteSum: Citation Text-guided Scientific Extreme Summarization citation text-guided scientific extreme summarization(英語) 0.65
and Low-resource Domain Adaptation そして低リソースのドメイン適応 0.61
Yuning Mao, Ming Zhong, Jiawei Han University of Illinois Urbana-Champaign {yuningm2, mingz5, hanj}@illinois.edu Yuning Mao, Ming Zhong, Jiawei Han University of Illinois Urbana-Champaign {yuningm2, mingz5, Hanj}@illinois.edu 0.46
Abstract Scientific extreme summarization (TLDR) aims to form ultra-short summaries of scientific papers. 概要 scientific extreme summarization (tldr) は、科学論文の超短い要約を形成することを目的としている。 0.52
Previous efforts on curating scientific TLDR datasets failed to scale up due to the heavy human annotation and domain expertise required. 科学的なtldrデータセットをキュレートする以前の取り組みは、大量の人間のアノテーションとドメインの専門知識のためにスケールアップに失敗した。
訳抜け防止モード: 科学TLDRデータセットのキュレーションに関するこれまでの取り組みは失敗した 高度な人間のアノテーションと ドメインの専門知識によって
0.59
In this paper, we propose a simple yet effective approach to automatically extracting TLDR summaries for scientific papers from their citation texts. 本稿では,その引用文から科学論文のtldr要約を自動的に抽出する手法を提案する。
訳抜け防止モード: 本稿では,単純かつ効果的なアプローチを提案する。 引用テキストから科学論文のtldr要約を自動的に抽出する。
0.75
Based on the proposed approach, we create a new benchmark CiteSum without human annotation, which is around 30 times larger than the previous human-curated dataset SciTLDR. 提案手法に基づき,従来のscitldrの約30倍の規模である,人間のアノテーションを伴わない新たなベンチマークであるcitesumを作成した。 0.67
We conduct a comprehensive analysis of CiteSum, examining its data characteristics and establishing strong baselines. citesumの包括的分析を行い,そのデータ特性を調べ,強いベースラインを確立する。 0.73
We further demonstrate the usefulness of CiteSum by adapting models pretrained on CiteSum (named CITES) to new tasks and domains with limited supervision. さらに、CiteSum(CITES)で事前訓練されたモデルを、監督が限定された新しいタスクやドメインに適用することで、CiteSumの有用性を実証する。 0.55
For scientific extreme summarization, CITES outperforms most fully-supervised methods on SciTLDR without any fine-tuning and obtains state-of-the-art results with only 128 examples. 科学的極端要約では、CITESは細調整なしでSciTLDRのほとんど完全に教師された手法を上回り、128の例で最先端の結果を得る。 0.50
For news extreme summarization, CITES achieves significant gains on XSum over its base model (not pre-trained on CiteSum), e g , +7.2 ROUGE-1 zero-shot performance and state-of-the-art few-shot performance. ニュースの極端な要約では、CITESはXSumのベースモデル(CiteSumでは事前訓練されていない)、eg , +7.2 ROUGE-1ゼロショットパフォーマンス、最先端の数ショットパフォーマンスよりも大幅に向上した。 0.54
For news headline generation, CITES performs the best among unsupervised and zero-shot methods on Gigaword.1 ニュースヘッドライン生成では、citesはgigaword.1で教師なしおよびゼロショットのメソッドで最高のパフォーマンスを発揮する
訳抜け防止モード: ニュース見出し生成において、CITESは教師なしの中で最善を尽くす Gigaword.1の0-shotメソッド
0.53
Introduction 1 Scientific summarization typically regards paper abstract as the ground-truth summary, as it is written by the authors themselves with relatively high quality and readily available in most scientific documents. はじめに 1 科学的要約は、著者自身が比較的高品質で、ほとんどの科学的文書で容易に入手できるように、一般的に、論文の要約を真実の要約とみなす。 0.59
However, paper abstract may not always be the ideal summary because it often involves certain details such as task description, background information, and experiment results (cf. しかし,紙抄録はタスク記述や背景情報,実験結果(cf)といった特定の詳細を必要とすることが多いため,必ずしも理想的な要約であるとは限らない。 0.67
the abstract of abstract (複数形 abstracts) 0.45
Paper Abstract: We study the problem of transferring a sample in one domain to an analog sample in another domain. 論文要約:ある領域のサンプルを別の領域のアナログサンプルに転送する問題について検討する。 0.75
Given two related domains, S and T , we would like to learn a generative function G that maps an input sample from S to the domain T , such that the output of a given function f , which accepts inputs in either domains, would remain unchanged. s と t の2つの関連領域が与えられたとき、s から t への入力サンプルを写像する生成関数 g を学習し、どちらの領域でも入力を受け付ける与えられた関数 f の出力が変わらないようにしたい。 0.63
Other than the function f , the training data is unsupervised and consist of a set of samples from each domain. 関数f以外は、トレーニングデータは教師なしで、各ドメインからのサンプルのセットで構成されている。 0.73
The Domain Transfer Network (DTN) we present employs a compound loss function that includes a multiclass GAN loss, an f -constancy component, and a regularizing component that encourages G to map samples from T to themselves. 現在、ドメイン転送ネットワーク(DTN)では、多クラスGAN損失、f-constancyコンポーネント、およびGがTから自分自身にサンプルをマッピングすることを奨励する正規化コンポーネントを含む複合損失関数を採用している。 0.73
We apply our method to visual domains including digits and face images and demonstrate its ability to generate convincing novel images of previously unseen entities, while preserving their identity. 本手法は,文字や顔画像を含む視覚領域に適用し,そのアイデンティティを保ちながら,これまで目に見えなかった新しい画像を生成する能力を示す。 0.73
Citation Text: Taigman et al [8] proposed the Domain Transfer Network (DTN) to map a sample from one domain to an analog sample in another domain and achieved favorable performance on small resolution face and digit images. 引用テキスト:taigman et al [8]はドメイン転送ネットワーク (dtn) を提案し、あるドメインから別のドメインのアナログサンプルにサンプルをマッピングし、小さな解像度の顔と数字の画像で良好な性能を達成した。 0.79
Table 1: An example showing that the citation texts of a paper can often be used as its ultra-short summary. 表1: 紙の引用テキストが、しばしばその超短い要約として使用できることを示す例。 0.79
this paper). As a result, recent work (Cachola et al , 2020) has studied the problem of scientific extreme summarization, which aims at forming ultra-short summaries (usually one sentence) of the papers, namely the TLDR2 summaries. この論文)。 その結果、最近の研究(Cachola et al , 2020)では、論文の超短要約(通常は1文)、すなわちTLDR2要約の形成を目的とした科学的極端要約の問題が研究されている。 0.64
However, unlike paper abstracts, ultra-short paper summaries are far from being universally available. しかし、紙抄録とは異なり、超短冊の紙要約は一般には利用できない。 0.55
Only certain scientific venues such as OpenReview.net support a TLDR field during paper submission, which is completely optional, and not all submitted papers provide such information. OpenReview.netのような特定の科学施設だけが、論文提出中にTLDRフィールドをサポートするが、これは完全にオプションであり、提出されたすべての論文がそのような情報を提供するわけではない。
訳抜け防止モード: OpenReview.netのような特定の科学施設だけが、論文提出中にTLDRフィールドをサポートする。 提出された書類には そんな情報はありません
0.68
In addition, human-annotated summaries of scientific documents are rather costly and require domain expertise. さらに、人間の注釈による科学文書の要約は、かなりコストがかかり、ドメインの専門知識を必要とする。 0.50
As a consequence, the previous SciTLDR dataset (Cachola et al , 2020), using a combination of author-provided TLDR and human-annotated その結果、著者が提供するTLDRと人間アノテーションを組み合わせたSciTLDRデータセット(Cachola et al , 2020)が得られた。 0.74
1Our dataset and code can be found at https:// 1Ourのデータセットとコードはhttps:// 0.71
github.com/morningmo ni/CiteSum. github.com/morningmo ni/CiteSum 0.20
2“TLDR” (or “TL;DR”) is short for “too long; didn’t read”, 2”TLDR”(あるいは“TL;DR”)は“長すぎる;読まない”という意味です。 0.76
often used in online discussions about scientific papers. 科学論文に関するオンライン議論でよく使われます 0.71
英語(論文から抽出)日本語訳スコア
TLDR (rephrased from paper reviews on OpenReview), only collected around 2,000 examples for training and 600 for testing. TLDR(OpenReviewの論文レビューから引用)は、トレーニングのサンプルは2,000、テストのサンプルは600に過ぎなかった。 0.70
In this paper, we argue that citation texts can often serve as high-quality short summaries of the cited papers. 本稿では,引用文が引用論文の質の高い要約として機能することが多いことを論じる。 0.76
In Table 1, we show the abstract of one paper and its citation sentence in a follow-up paper. 表1では,1つの論文の要約とその引用文をフォローアップ論文で示す。 0.67
We observe that the citation sentence introduces the cited method and its contributions in a concise and accurate manner. 引用文が引用法とその貢献を簡潔かつ正確な方法で導入することを観察する。 0.73
Motivated by such observations, we propose a simple yet effective approach to locating, extracting, and filtering citation texts from scientific papers. そこで我々は, 科学的論文から引用文の検索, 抽出, フィルタリングを行うための, シンプルかつ効果的な手法を提案する。 0.73
We then treat the processed citation texts as ground-truth summaries of the cited papers. 次に,処理された引用文を引用論文の要約として扱う。 0.58
Based on the proposed approach, we create a large-scale scientific extreme summarization benchmark, CiteSum, which is automatically derived from citation texts and around 30 times larger than the previous human-annotated dataset SciTLDR (Cachola et al , 2020). 提案手法に基づく大規模科学的極端要約ベンチマークであるCiteSumは、引用テキストから自動的に抽出され、従来の人間注釈データセットSciTLDR(Cachola et al , 2020)の約30倍の大きさである。 0.71
We conduct a comprehensive analysis of CiteSum regarding its data characteristics and quality, meanwhile establishing strong baselines as the reference for future studies. 我々はCiteSumのデータ特性と品質に関する総合的な分析を行い、一方で今後の研究の基準として強力なベースラインを確立する。 0.74
We further verify the usefulness of CiteSum by demonstrating that models pre-trained on CiteSum, which we name as CITES (Citation Text-guided Summarizer), exhibit superior generalizability during low-resource adaptation to new tasks and domains. 我々は、CiteSumで事前訓練したモデルであるCITES(Citation Text-guided Summarizer)が、新しいタスクやドメインへの低リソース適応中に優れた一般化性を示すことを示すことで、CiteSumの有用性をさらに検証する。 0.66
On the human-annotated scientific extreme summarization dataset SciTLDR (Cachola et al , 2020), our zero-shot BART-based (Lewis et al , 2020) CITES, without any fine-tuning, performs better than most fully-supervised baselines, including the fully-supervised BART model (without pre-training on CiteSum). SciTLDR(Cachola et al , 2020)では、私たちのゼロショットBARTベース(Lewis et al , 2020)のCITESは、微調整なしで、完全に教師されたBARTモデルを含む、ほとんどの完全に教師されたベースラインよりも優れたパフォーマンスを実現しています。 0.57
Our few-shot CITES achieves state-of-the-art performance with only 128 labeled examples from SciTLDR. 我々の数少ないCITESは、SciTLDRの128のラベル付き例で最先端のパフォーマンスを実現しています。 0.48
In addition, CITES outperforms its base model (BART) on two more diverse scientific tasks – discipline classification and title generation. さらに、CITESは、そのベースモデル(BART)を2つのより多様な科学的タスク(規律分類とタイトル生成)で上回っている。 0.62
When transferring to news extreme summarization, despite the domain mismatch, CITES achieves significantly better zero-shot performance than BART and PEGASUS (Zhang et al , 2020) (e g , +7.2 ROUGE-1) and state-of-the-art few-shot performance on the XSum dataset (Narayan et al , 2018). ドメインミスマッチにもかかわらず、ニュースの極端な要約に移行する場合、CITES は BART や PEGASUS (Zhang et al , 2020) (e g , +7.2 ROUGE-1) よりもはるかに優れたゼロショット性能と XSum データセット(Narayan et al , 2018)の最先端のいくつかのショットパフォーマンスを達成する。 0.62
Furthermore, CITES performs the best among unsupervised and zero-shot methods on the Gigaword news headline generation dataset (Rush et al , 2015). さらに、CITESはGigaword Newsの見出し生成データセット(Rush et al , 2015)において、教師なしおよびゼロショットの手法の中で最高のパフォーマンスを発揮する。 0.54
Contributions. (1) We propose a simple yet ef- 貢献。 1) 単純ながら簡単な ef を提案する。 0.50
Citation Example 1: We take the publicly available Semantic Scholar Open Research Corpus (S2ORC) (Lo et al , 2020) as the source for data creation. 引用例 1: 一般公開されているs2orc(semantic scholar open research corpus)(lo et al, 2020)をデータ作成のソースとして利用します。 0.80
Citation Example 2: Unlike WikiTransfer (Fabbri et al , 2021), CITES does not involve any downstream task-specific data selection or model tuning. Citation Example 2:WikiTransfer (Fabbri et al , 2021)とは異なり、CITESはダウンストリームのタスク固有のデータ選択やモデルチューニングを含まない。 0.79
Table 2: Examples (in our paper) showing that citation texts have different intents and cannot always be used as summaries of the cited paper. 表2: 引用文が異なる意図を持ち、引用した論文の要約として必ずしも使用できないことを示す例(われわれの論文)。 0.74
fective approach to automatically extracting ultrashort paper summaries from citation texts. 引用テキストから超短紙要約を自動的に抽出するフェクティブアプローチ 0.77
(2) Based on the proposed approach, we create a largescale scientific extreme summarization benchmark CiteSum and conduct a comprehensive analysis of it. 2)提案手法に基づいて,大規模科学的極端要約ベンチマークCiteSumを作成し,その包括的な解析を行う。 0.78
(3) We further verify the quality and usefulness of CiteSum by demonstrating that models pretrained on CiteSum perform very well on new tasks and domains such as news extreme summarization and headline generation with limited training. 3) CiteSumで事前訓練されたモデルは,ニュース過激な要約や,限られたトレーニングを伴う見出し生成など,新しいタスクや領域で非常によく機能することを示すことで,CiteSumの品質と有用性をさらに検証する。 0.70
2 CiteSum: A Large-scale Scientific 2 CiteSum:大規模科学 0.74
Extreme Summarization Benchmark 極端要約ベンチマーク 0.57
2.1 Data Creation Data Source We take the publicly available Semantic Scholar Open Research Corpus (S2ORC) (Lo et al , 2020) as the source for data creation. 2.1 データ作成データソース データ作成のソースとして、公開されているSemantic Scholar Open Research Corpus (S2ORC) (Lo et al , 2020) を取り上げます。 0.84
In the latest version of S2ORC, there are 136M scientific papers from different academic disciplines and the number of papers with full-text access is 12M. 最新のS2ORCでは、異なる学術分野の科学論文が136万件あり、全文アクセス可能な論文は12万件である。 0.67
We further remove papers without citation information, resulting in 9M papers as the candidates. さらに,引用情報のない論文も削除し,その結果9mの論文が候補となる。 0.68
Quality Control Not all citation texts are of high quality and can be used as summaries of the cited papers. 品質管理 すべての引用文は高品質であり、引用された論文の要約として使用できるわけではない。 0.66
In Table 2, we show two examples (in our paper) where the citation sentence simply (1) describes the data source or (2) introduces the difference of the citing paper from the cited paper. 表2では、引用文が(1)データソースを説明するか、(2)引用用紙と引用用紙の違いを導入するという2つの例を示す(本論文では)。 0.75
We note that prior studies on citation text generation (Chen et al , 2021; Ge et al , 2021) often do not filter these citation texts and simply treat all paragraphs/sentences with citations as the ground-truth labels, as their goals are not on paper summarization but writing assistance. 引用テキスト生成に関する先行研究 (chen et al , 2021; ge et al , 2021) では,これらの引用テキストをフィルタリングせず,単にすべての段落/文を引用ラベルとして扱う。
訳抜け防止モード: 引用テキスト生成に関する先行研究 (chen et al,) に注目する。 2021 ; ge et al, 2021 ) しばしばこれらの引用テキストをフィルタリングしない すべての段落や文を引用を根拠として扱う - 真理ラベル。 目的が 紙の要約ではなく 執筆支援にあるからです
0.77
To ensure data quality, we carefully locate, extract, and filter the citation texts of papers in the following manner. データ品質を確保するため、用紙の引用テキストを次の方法で慎重に見つけ、抽出し、フィルタリングする。 0.69
First, we only take citation texts in the Related Work section of a paper, which largely ensures that they describe the content of the cited paper instead of irrelevant information, such as task まず、論文の関連作業部にのみ引用文を引用し、引用された論文の内容がタスクなどの無関係な情報ではなく、確実に記述されるようにする。 0.72
英語(論文から抽出)日本語訳スコア
Dataset Gigaword (Rush et al , 2015) XSum (Narayan et al , 2018) arXiv (Cohan et al , 2018) SciSummNet (Yasunaga et al , 2019) TalkSumm (Lev et al , 2019) SciTLDR (Cachola et al , 2020) CiteSum Dataset Gigaword (Rush et al , 2015) XSum (Narayan et al , 2018) arXiv (Cohan et al , 2018) SciSummNet (Yasunaga et al , 2019) TalkSumm (Lev et al , 2019) SciTLDR (Cachola et al , 2020) CiteSum 0.42
Train / Val / Test 3,803,957 / 189,651 / 1,951 204,045 / 11,332 / 11,334 203,037 / 6,436 / 6,440 Train / Val / Test 3,803,957 / 189,651 / 1,951 204,045 / 11,332 / 11,334 203,037 / 6,436 / 6,440 0.30
1,000 /1,716 / 1,992 / 618 83,304 / 4,721 / 4,921 1,000 /1,716 / 1,992 / 618 83,304 / 4,721 / 4,921 0.28
// 619 / lensrc 32 431 4.9K 4.7K 4.8K 159 255 // 619 / lensrc 32 431 4.9k 4.7k 4.8k 159 255 0.38
lensumm Automatic? レンズムオートマチック? 0.55
9 23 220 150 150 21 23 9 23 220 150 150 21 23 0.42
              0.42
Table 3: Statistics of relevant summarization datasets showing the number of samples per data split, the average number of words in the source document (src) and reference summary (summ), and whether dataset creation is automatic without human annotation. 表3: データ分割毎のサンプル数を示す関連する要約データセットの統計、ソース文書(src)における単語の平均数、参照要約(summ)、データセット作成が人間のアノテーションなしで自動であるかどうか。 0.83
SciSummNet (Yasunaga et al , 2019) and TalkSumm (Lev et al , 2019) do not contain validation/test set as their model evaluation was done on another dataset (Jaidka et al , 2016). scisummnet (yasunaga et al , 2019) と talksumm (lev et al , 2019) は、モデル評価が別のデータセット(jaidka et al , 2016)で実施されたため、検証/テストセットを含まない。 0.79
background in the Introduction section or the implementation details in the Experiment section. 導入セクションの背景、または実験セクションの実装詳細。 0.59
After filtering papers without a Related Work section, there are around 288K papers left. 関連作業部のない書類をフィルタリングした後、約288万件の論文が残されている。 0.61
Second, we only keep citation sentences that cite a single paper, since those with multiple citations typically discuss one line of work and cannot be used as the summary of a specific paper. 第2に,複数の引用文が1行の作業について論じることが多く,特定の論文の要約として利用できないため,引用文は1つの論文のみを引用する。 0.72
In total, we obtain about 426K citation sentences. 合計で約426kの引用文を得る。 0.68
Next, we measure the similarity between the citation texts and the cited papers and filter dissimilar pairs. 次に引用テキストと引用論文の類似度を測定し,類似した対をフィルタする。 0.79
Intuitively, if a citation sentence can serve as a high-quality summary, certain amount of its content should be from the cited paper. 直感的には、引用文が高品質な要約として機能できるならば、その内容の一定量を引用紙から得るべきである。 0.60
Prior work (Lu et al , 2020) also showed that authors tend to cite a paper using the information in the abstract of the cited paper. 以前の研究(Lu et al , 2020)では、著者は引用された論文の要約にその情報を用いて論文を引用する傾向がある。 0.69
We thus calculate the overlap between paper abstracts and their citation sentences, and filter those below a threshold T . そこで,論文要約文と引用文の重なりを計算し,しきい値 T 以下をフィルタリングする。 0.69
We set T to 50/20/40 for ROUGE-1/2/L recall through manual examination, resulting in a ROUGE-1/2/L recall of 73.1/39.4/58.5 after filtering.3 ROUGE-1/2/Lリコールは手動で50/20/40に設定した。 0.49
As a reference, the ROUGE-1/2/L recall between paper abstracts and reference summaries on SciTLDR (Cachola et al , 2020) is 81.1/38.9/62.0 and 65.2/17.9/45.7 for author-provided (SciTLDR-Auth) and peer reviewderived (SciTLDR-PR) TLDR, respectively. 参考文献として、SciTLDR(Cachola et al , 2020)における論文要約と参照要約とのROUGE-1/2/Lリコールは、著者提案(SciTLDR-Auth)とピアレビュー派生(SciTLDR-PR)TLDRに対してそれぞれ81.1/38.9/62.0と65.2/17.9/45.7である。
訳抜け防止モード: 参考文献として、ROUGE-1/2 / Lリコール SciTLDR (Cachola et al, 2020 ) の参照要約は 81.1/38.9/62.0 と 65.2/17.9/45.7 である。 and peer review derived (SciTLDR - PR ) TLDR, respectively。
0.62
That is, the abstraction level of CiteSum is between SciTLDR-Auth and SciTLDR-PR. すなわち、CiteSumの抽象化レベルは、SciTLDR-AuthとSciTLDR-PRの間にある。 0.61
This filtering step is rather strict as we prefer quality to quantity of the data and only 93K of the 426K examples (21.8%) are kept. このフィルタリングステップは、データの量よりも品質を好むため、かなり厳格であり、426K例(21.8%)のうち93Kしか保存されていない。 0.63
We further replace each citation span (e g , “Taigman et al [8]”) with a special token “REF” as they vary in different papers but essentially have the same meaning (i.e., referring to a cited paper). さらに、各引用スパン(例:taigman et al [8])を、異なる論文で異なるが本質的に同じ意味を持つ特別なトークン“ref”に置き換える(例:引用された論文を参照)。 0.65
Dataset Split After data filtering and preprocessing, there are 92,946 examples in the final citation text-guided summarization dataset, which we name as CiteSum. Dataset Split データフィルタリングと前処理の後、最後の引用テキスト誘導要約データセットに92,946の例があり、CiteSumと名付けています。 0.75
We take about 5% of the data as the validation and test sets respectively, and the remaining 90% as the training set. データの約5%を検証セットとテストセットとして取り、残りの90%をトレーニングセットとして取ります。 0.69
As one paper may be cited multiple times in different papers, we ensure that there is no label leakage by excluding papers used for evaluation from the training set. 1つの論文が異なる論文で複数回引用される可能性があるので、トレーニングセットから評価に使用する論文を除外することでラベル漏れがないようにする。 0.64
2.2 Data Analysis Dataset Statistics In Table 3, we show the data statistics of CiteSum and other relevant summarization datasets. 2.2 データ分析データセット統計 表3では、CiteSumや他の関連する要約データセットのデータ統計を示す。 0.83
In terms of data size, CiteSum is about half the size of other automatically constructed datasets like XSum (Narayan et al , 2018) and arXiv (Cohan et al , 2018) due to the availability of citation texts and our strict quality control. データサイズに関しては、XSum(Narayan et al , 2018)やarXiv(Cohan et al , 2018)のような、引用テキストの可用性と厳格な品質管理のため、他の自動構築データセットの約半分の大きさです。 0.71
On the other hand, the size of CiteSum is much larger than human-annotated datasets on paper summarization (Yasunaga et al , 2019; Cachola et al , 2020) – almost 30 times larger than the SciTLDR dataset (Cachola et al , 2020). 一方、CiteSumのサイズは、紙の要約に関する人間の注釈付きデータセット(Yasunaga et al , 2019; Cachola et al , 2020)よりもはるかに大きく、SciTLDRデータセット(Cachola et al , 2020)の約30倍である。 0.80
When compared to SciTLDR, the average length of source documents in CiteSum is longer, while that of the reference summaries is similar as the majority of summaries in SciTLDR also involve one sentence. SciTLDRと比較して、CiteSumのソースドキュメントの平均長は長いが、参照サマリーの平均長は、SciTLDRのサマリーの大多数が1文を含むのと同様である。 0.73
When compared to XSum, the summary length in CiteSum is also quite similar. XSumと比較すると、CiteSumの要約長もかなり似ている。 0.73
However, the inputs in XSum are news articles instead of scientific papers and the input lengths also vary. しかし、XSumの入力は科学論文ではなくニュース記事であり、入力の長さも異なる。 0.72
As for Gigaword (Rush et al , 2015), a news headline generation dataset, both its source input and target output are much shorter than CiteSum. gigaword (rush et al , 2015) については、ニュースヘッドライン生成データセットでは、ソース入力とターゲット出力の両方がcitesumよりもはるかに短い。 0.77
Despite such differences, we observe that our models pre-trained on CiteSum transfer very well to these datasets in zero-shot and few-shot settings (Sec. 4). このような違いはあるものの、CiteSumで事前トレーニングされたモデルが、ゼロショットと少数ショット設定でこれらのデータセットに非常によく対応している(Sec.4)。 0.52
3We also experimented with semantic metrics such as BERTScore (Zhang et al , 2019) but they did not function as well as ROUGE-based metrics in our human evaluation. 3 BERTScore(Zhang et al , 2019)のようなセマンティックな指標も試したが,人間の評価ではROUGEベースの指標ほど機能しなかった。 0.69
Discipline Analysis In Fig 1, we show the discipline distribution of papers in CiteSum. 図1の規律分析では,citesumにおける論文の規律分布を示す。 0.65
The disci- ディスク 0.37
英語(論文から抽出)日本語訳スコア
Figure 1: Discipline distribution of papers in CiteSum. 図1:CiteSumにおける論文の規律分布 0.75
Log scale is used for clearer illustration. ログスケールは、より鮮明なイラストに使用される。 0.58
Disciplines with lower than 0.1% distribution are omitted. 分布が0.1%未満の規律は省略される。 0.64
pline information is derived from the field of study in Microsoft Academic Graph (MAG) (Shen et al , 2018). pline 情報は Microsoft Academic Graph (MAG) (Shen et al , 2018) の研究分野から派生している。 0.75
We take the top field of study for each paper if there are multiple. 複数の論文がある場合、各論文の上位研究分野を取ります。 0.66
We note that the discipline distribution in CiteSum is quite different from its data source S2ORC (Lo et al , 2020) where medicine and biology dominate. 我々はCiteSumのデータソースであるS2ORC (Lo et al , 2020) と、医学と生物学が支配的な分野である。 0.71
In contrast, most papers in CiteSum are in computer science. 対照的に、CiteSumのほとんどの論文はコンピュータ科学に関するものである。 0.59
The shift in discipline distribution is because we explicitly keep papers with a Related Work section, where around 82.8% are computer science papers. 規律の分散のシフトは、82.8%がコンピュータサイエンス論文である関連作業セクションで論文を明示的に保持しているためである。 0.71
We then take the citation texts in the above papers, which largely lead to papers in similar disciplines. 次に、上記の論文の引用テキストを取り、その多くが同様の分野の論文に繋がる。 0.66
As a result, most papers in CiteSum are from computer science, mathematics, and engineering. その結果、CiteSumのほとんどの論文は計算機科学、数学、工学から来ている。 0.79
Citation Analysis In Fig 2, we show the average number of citations for papers in CiteSum. 図2では、CiteSumにおける論文の平均引用数を示す。 0.61
Note that the citation count shown does NOT reflect the total number of citations due to data filtering, but how many times a paper appears in CiteSum as examples (with the same input and different citation sentences as target output). 注意すべき点は、示される引用カウントは、データフィルタリングによる引用の総数を反映しないが、例示として引用サムに紙が何回現れるかである(同じ入力と異なる引用文がターゲット出力として現れる)。 0.70
In total, there are 59,707 unique papers in CiteSum with an average citation of 1.56, and 98% of the papers have fewer than 5 citations. CiteSumには合計59,707のユニークな論文があり、平均的な引用は1.56であり、98%の論文は5件未満である。 0.75
Compared to prior work, we do not only target popularly cited papers (Yasunaga et al , 2019) and use different citation texts as different training examples instead of multiple reference summaries (Cachola et al , 2020). 先行研究と比較して,一般的な引用論文(安永等,2019年)を対象とするだけでなく,複数の参考要約(cachola et al,2020年)ではなく,異なる引用テキストを異なるトレーニング例として使用する。 0.67
Human Evaluation We randomly sample 50 examples from CiteSum and ask two human annotators with a background in computer science to examine whether the citation sentences can serve as high-quality summaries of the papers. 人間の評価 CiteSumから50のサンプルをランダムにサンプリングし、コンピュータ科学のバックグラウンドを持つ2人のアノテータに、引用文が論文の高品質な要約として役立つかどうかを尋ねる。 0.71
Similar to Cachola et al (2020), we use a 4-point scale for Cachola et al (2020)と同様、我々は4点スケールを使用する。 0.84
Figure 2: Citation distribution of papers in CiteSum. 図2:CiteSumにおける論文の引用分布 0.80
evaluation with 1 - false or misleading, 2 - partially accurate, 3 - mostly accurate, and 4 - accurate. 1 - 誤りまたは誤解による評価、2 - 部分的に正確、3 - ほとんど正確、4 - 正確である。 0.79
The rating distribution is listed in Table 4. 評価分布は表4に記載されている。 0.72
80% citation sentences are considered (mostly) accurate to be used as summaries of the cited papers. 80%の引用文は引用された論文の要約として(主に)正確であると考えられている。 0.65
On the other hand, there are still 10% misleading summaries, which we argue is quite common in automatically created summarization datasets (Mao et al , 2020). 一方、まだ10%の誤解を招く要約が存在するため、自動生成した要約データセット(Mao et al , 2020)では、非常に一般的である。 0.70
We show 4 examples corresponding to each rating in App. アプリ内の各評価に対応する4つの例を示す。 0.74
A. We will further verify the quality of CiteSum by adapting models pre-trained on it to new tasks and domains (Sec. 4). A. 事前訓練されたモデルを新しいタスクやドメインに適応させることにより、CiteSumの品質をさらに検証する(Sec.4)。 0.81
Rating Percentage レーティングパーセンテージ 0.62
1 2 3 4 10% 20% 28% 42% 1 2 3 4 10% 20% 28% 42% 0.43
Table 4: Ratings of citation sentences in CiteSum regarding whether they can serve as high-quality summaries of the cited papers. 表4:引用文が引用論文の質の高い要約として機能できるかに関する引用文の評価。 0.76
3 Experiments on CiteSum CiteSumの実験3 0.77
In this section, we experiment on CiteSum with state-of-the-art baselines and analyze their performance under different setups to provide references for future studies. 本稿では,CiteSumを最先端のベースラインで実験し,その性能を異なる設定で解析し,今後の研究への参照を提供する。 0.76
Implementation and training details are provided in App. 実装とトレーニングの詳細はapp.orgで提供されている。 0.49
B. 3.1 Examined Methods We use BART-large (Lewis et al , 2020) and PEGASUS-large (Zhang et al , 2020) as the base models as they are the state-of-the-art methods on multiple summarization datasets. bだ 3.1 審査方法 BART-large (Lewis et al , 2020) と PEGASUS-large (Zhang et al , 2020) をベースモデルとして使用します。 0.66
We examine the base models with different inputs such as paper abstract (Abs), abstract+introduction+conclusion (AIC), and abstract+title. 論文要約(Abs)、抽象+イントロダクション+コンクルージョン(AIC)、抽象+タイトルなどの異なる入力を持つベースモデルについて検討する。
訳抜け防止モード: 論文要約 ( Abs ) などの異なる入力を持つベースモデルについて検討する。 abstract+introduction+conclusion ( AIC ) と abstract+title である。
0.71
In addition to using the TLDR (citation text) as the only generation target, we evaluate two multi-task settings with paper title TLDR(引用テキスト)を唯一の生成ターゲットとして用いることに加え、紙タイトル付きマルチタスク設定を2つ評価する。 0.75
101100101102Percent (log)CompSciMathemat icsEngineeringMedici nePhysicsBiologyPsyc hologyEconomicsGeogr aphySociologyBusines s80.40%10.74%3.42%2. 13%0.77%0.69%0.66%0. 42%0.21%0.13%0.11%Di scipline distribution of papers1234567Citatio n Count020406080100Per cent72.8%16.4%5.3%2. 4%1.2%0.6%0.4%89.2%9 4.5%96.9%98.0%98.6%9 9.0%Citation distribution of papersAggregated 101100101102 Percent (log)CompSciMathemat icsEngineeringMedici neMedicinePhysicsBio logy BioologyEconomicsGeo graphySociologyBusin ess80.40%10.74%3.42% 2.13%0.77%0.69%0.66% 0.42%0.21%0.13%0.11% Discipline distribution of papers1234567Citatio n Count020406080100Per cent72.8%16.4%5.3%2. 4%0.6%0.6%89.2%94.5% 96.9%98.0%98.0%%Cita tion distribution of papersAggregated 0.21
英語(論文から抽出)日本語訳スコア
and discipline (Disci)4 as the targets, where different prefix tokens are added to the input such that the model can generate different targets given the same paper abstract as input (Cachola et al , 2020). and discipline (Disci)4 as the target, where different prefix tokens are added to the input that the model can generate different target given the same paper abstract as input (Cachola et al , 2020)。
訳抜け防止モード: 目標として規律(disi)4を 入力に異なるプレフィックストークンが追加される モデルが入力と同じ論文を抽象化する(Cachola et al, 2020)ことで、異なるターゲットを生成することができる。
0.81
We further evaluate the following extractive baselines. さらに,以下の抽出ベースラインを評価する。 0.68
EXT-LEAD: a method that takes the first sentence of the paper abstract, which performs fairly well in news summarization. ext-lead: 新聞要約の最初の文を取る手法で、ニュース要約でかなりうまく機能します。 0.59
EXT-HEURISTIC: a heuristic method that looks for the first sentence containing “propose”, “introduce”, or “in this paper”, as such sentences likely reflect the contribution of the paper. EXT-HeURISTIC:「提案」、「導入」、または「この論文」を含む最初の文を探すヒューリスティックな方法。
訳抜け防止モード: ext - ヒューリスティック : 「提案」を含む最初の文を探すヒューリスティックな方法 「紹介」とか「この紙に」とか そのような文はおそらくその論文の貢献を反映している。
0.75
It falls back to EXT-LEAD if no such sentences are found. そのような文が見つからなければEXT-LEADにフォールバックする。 0.63
EXT-ORACLE: an upper bound that matches each sentence in the paper abstract with the reference summary and takes the sentence with the highest ROUGE-2 F1. EXT-ORACLE: 論文の各文を参照要約と抽象的に一致させ、最も高いROUGE-2 F1で文を取る上限。 0.72
3.2 Results In Table 5, we show the results of various baseline methods on CiteSum. 3.2 結果 表5では、CiteSum の様々なベースライン手法の結果を示す。 0.83
When given paper abstract as the source document, PEGASUS performs worse than BART and we thus use BART as the major model in the following experiments. 資料として要約すると,PEGASUSはBARTよりも性能が悪く,以下の実験ではBARTを主要なモデルとして用いている。 0.81
Further adding paper introduction and conclusion to the model input slightly improves model performance, at the expense of longer training time and increased memory usage. さらに、モデル入力にペーパーの導入と結論を加え、より長いトレーニング時間とメモリ使用量の増加を犠牲にして、モデルパフォーマンスをわずかに改善する。 0.67
The gains brought by adding title and discipline information to model input are quite marginal, while using them for multi-task learning does not lead to clearly better results. モデル入力にタイトルと規律情報を追加することで得られる利得は、かなり限界があるが、マルチタスク学習に使用すると、明確な結果が得られない。
訳抜け防止モード: モデル入力にタイトルと規律情報を追加することで得られる利益は、かなり限界です。 マルチタスク学習に利用しながら 明らかに良い結果に つながりません
0.79
The fact that methods proposed by recent studies such as multi-task learning (Cachola et al , 2020) perform ineffectively on CiteSum indicates that CiteSum remains an unresolved and challenging scenario. マルチタスク学習(Cachola et al , 2020)のような最近の研究によって提案された手法が、CiteSumでは効果がないという事実は、CiteSumが未解決かつ挑戦的なシナリオのままであることを示している。 0.52
For the extractive baselines, EXT-LEAD performs significantly worse than that in the news domain. 抽出ベースラインでは、EXT-LEADはニュース領域よりも大幅に性能が低下する。 0.70
EXT-HEURISTIC improves upon EXTLEAD drastically and yet lags behind state-of-theart methods by a large margin. EXT-HeURISTICはEXTLEADを大幅に改善し、最先端の手法に大きく遅れている。 0.59
EXT-ORACLE performs the best, the performance of which is generally consistent with the numbers on the humanannotated SciTLDR dataset (Cachola et al , 2020). ext-oracleは最善を尽くし、そのパフォーマンスは一般にscitldrデータセット(cachola et al , 2020)の数値と一致している。 0.62
On the other hand, the fact that abstractive methods have approached the extractive upper bound indicates that more abstraction is needed to further improve model performance on CiteSum. 一方、抽象的手法が抽出上界に接近したという事実は、CiteSumのモデル性能をさらに向上させるためには、より多くの抽象化が必要であることを示している。 0.65
We believe that CiteSum provides a wellestablished testbed for future studies on (scientific) extreme summarization. 我々は、CiteSumが(科学的)極端な要約に関する将来の研究のために確立されたテストベッドを提供すると考えている。 0.47
The following future di- 4Here, we cast discipline classification as a seq2seq task (Nogueira et al , 2020). 今後の展望- 4)seq2seqタスクとして規律分類(nogueira et al, 2020)を行った。 0.64
We found that all generated outputs are valid discipline names in our experiments. 得られた出力はすべて、実験で有効な規律名であることがわかった。 0.52
Method Target Source TLDR Abs TLDR (PEGASUS) Abs TLDR AIC Abs+Title TLDR Abs+Disci TLDR Abs Abs EXT-LEAD EXT-HEURISTIC EXT-ORACLE TLDR Abs TLDR (PEGAUSUS) Abs TLDR AIC Abs+Title TLDR Abs+Disci TLDR Abs EXT-LEAD EXT-HEURISTIC EXT-ORACLE 0.42
TLDR/Title TLDR/Title/Disci TLDR/Title TLDR/Title/Disci 0.20
R-1 R-2 R-L R-1 R-2 R-L 0.29
41.86 41.56 41.99 42.02 42.01 41.85 41.89 21.94 29.32 44.17 41.86 41.56 41.99 42.02 42.01 41.85 41.89 21.94 29.32 44.17 0.21
19.36 18.63 19.52 19.44 19.34 19.21 19.51 7.35 12.53 27.22 19.36 18.63 19.52 19.44 19.34 19.21 19.51 7.35 12.53 27.22 0.21
33.72 33.45 33.89 33.78 33.72 33.42 33.73 17.36 23.99 38.32 33.72 33.45 33.89 33.78 33.72 33.42 33.73 17.36 23.99 38.32 0.21
Table 5: Performance of different methods on CiteSum. 表5: CiteSum上の異なるメソッドのパフォーマンス。 0.81
BART-large is used as the base model if not otherwise specified. BART-large がベースモデルとして使用される。 0.67
“/” indicates multi-task learning. はマルチタスク学習を意味する。 0.55
R stands for ROUGE (Lin, 2004) in all the tables. R は全表で ROUGE (Lin, 2004) の略である。 0.83
rections may be worth exploring: rectionsは、探究する価値があるかもしれない。 0.36
1) how to better understand the structure and content of scientific papers with domain knowledge (via relevant papers, terminology, taxonomies, etc); 1) ドメイン知識を伴う科学論文の構造と内容(関連論文、用語、分類等)の理解を深める方法 0.63
2) how to better capture the differences in writing styles across various domains; and 2)諸藩にまたがる書風の違いをよりよく把握する方法,及び 0.58
3) how to improve the saliency, factual correctness, and explainability of TLDR summaries given their conciseness. 3) その簡潔さから, TLDRサマリーの正当性, 事実的正当性, 説明可能性を改善する方法。 0.71
4 Transferring to New Tasks and 4 新しいタスクへの転送 0.73
Domains with CITES CITESを持つドメイン 0.86
To further verify the quality and usefulness of CiteSum, we adapt models pre-trained on CiteSum to new tasks and domains, some of which are rather different from CiteSum and make model transfer with limited supervision very challenging. CiteSumの品質と有用性をさらに検証するために、CiteSumで事前訓練されたモデルを新しいタスクやドメインに適用する。
訳抜け防止モード: CiteSumの品質と有用性をさらに検証する。 CiteSumでトレーニングされたモデルを、新しいタスクやドメインに事前適用します。 CiteSumとはかなり異なるものもあり、限定的な監督を伴うモデル転送は非常に難しい。
0.64
Specifically, we name our pre-trained model as CITES (Citation Text-guided Summarizer). 具体的には、事前学習したモデルをCITES(Citation Text-guided Summarizer)と命名する。 0.57
CITES uses the simplest form in Sec. 3 with paper abstract as input and TLDR as target output. CITESはSec.3の最も単純な形式で、紙を入力として抽象し、TLDRをターゲット出力として使用する。 0.55
We evaluate CITES on various downstream tasks with no fine-tuning (zero-shot) or limited training examples (few-shot), including scientific extreme summarization on SciTLDR (Cachola et al , 2020), news extreme summarization on XSum (Narayan et al , 2018), and news headline generation on Gigaword (Rush et al , 2015). 我々は,SciTLDR (Cachola et al , 2020), News extreme summarization on XSum (Narayan et al , 2018), News Headline Generation on Gigaword (Rush et al , 2015),など,微調整(ゼロショット)や限られた訓練例(フェーショット)を伴わない下流タスクにおけるCITESの評価を行った。 0.77
Additionally, we evaluate CITES on two more diverse tasks in the scientific domain, namely discipline classification and title generation, in a fully-supervised setting. さらに,科学領域における2つのより多様なタスク,すなわち規律分類とタイトル生成について,完全に監督された設定で評価する。 0.67
4.1 Scientific Extreme Summarization Setup SciTLDR (Cachola et al , 2020), the human-annotated scientific extreme summarization dataset, is an ideal testbed for further verifying 4.1 Scientific Extreme Summarization Setup SciTLDR (Cachola et al , 2020)は、人間の注釈による科学的極端要約データセットである。 0.79
英語(論文から抽出)日本語訳スコア
Method EXT-ORACLE Fully-supervised PACSUM (Zheng and Lapata, 2019) BERTSum (Liu and Lapata, 2019) MatchSum (Zhong et al , 2020) BART (Lewis et al , 2020) BARTXSUM (Lewis et al , 2020) CATTS (Cachola et al , 2020) CATTSXSUM (Cachola et al , 2020) Zero-shot CITES (post-processing) CITES (prompting) CITES (prompting, gold 3 tokens) Few-shot CITES (32-shot) BART (128-shot) CITES (128-shot) Method EXT-ORACLE Fully-supervised PACSUM (Zheng and Lapata, 2019) BERTSum (Liu and Lapata, 2019) MatchSum (Zhong et al , 2020) BART (Lewis et al , 2020) BARTXSUM (Lewis et al , 2020) CATTS (Cachola et al , 2020) CATTSXSUM (Cachola et al , 2020) Zero-shot CITES (post-processing) CITES (prompting) CITES (prompting) CITES (prompting, Gold 3 tokens) Few-shot CITES (32-shot) BART (128-shot) CITES (28-shot) CATTS (CATTS (Cachola et al , 2020)
訳抜け防止モード: method ext - oracle full - supervised pacsum (zheng and lapata, 2019) bertsum (liu and lapata, 2019) 2019年) matchsum (zhong et al, 2020年) bart (lewis et al, 2020年) bartxsum (lewis et al, 2020年) catts (cachola et al, 2020年) cattsxsum (cachola et al, 2020年) zero - shot cites (post - processing ) cites (プロンプト) cites (プロンプト) cites (プロンプト) cites (プロンプト) ゴールド3トークン) 少数 - ショット128枚 (32枚) バート128枚 (128枚) ストローク128枚 (128枚)
0.57
R-1 R-2 R-L 47.7 38.5 R-1 R-2 R-L 47.7 38.5 0.22
24.7 19.3 38.5 42.7 43.3 42.5 43.8 44.3 24.7 19.3 38.5 42.7 43.3 42.5 43.8 44.3 0.25
43.4 43.5 46.3 43.4 43.5 46.3 0.24
43.8 42.1 44.5 43.8 42.1 44.5 0.24
4.0 16.6 20.0 20.8 21.1 20.9 21.3 4.0 16.6 20.0 20.8 21.1 20.9 21.3 0.21
19.7 20.9 27.4 19.7 20.9 27.4 0.24
21.4 19.1 21.6 21.4 19.1 21.6 0.24
15.1 30.5 34.0 35.0 34.9 35.5 35.9 15.1 30.5 34.0 35.0 34.9 35.5 35.9 0.21
34.8 36.0 41.9 34.8 36.0 41.9 0.24
36.4 33.4 36.5 36.4 33.4 36.5 0.24
Table 6: Performance comparison on SciTLDR (Cachola et al , 2020) using its official evaluation script. 表6: 公式評価スクリプトを使用したSciTLDR(Cachola et al , 2020)のパフォーマンス比較。 0.79
the quality and usefulness of CiteSum since they both target extreme summarization, belong to the scientific domain (though CiteSum involves more disciplines), and share similar input/output formats (though CiteSum has slightly longer inputs). CiteSumは、どちらも極端な要約をターゲットにしており、科学領域に属している(ただし、CiteSumはより多くの規律を含む)ため、同様の入力/出力フォーマットを共有している(CiteSumはわずかに長い入力を持っているが)。 0.61
One noticeable difference, however, is the point of view of the summaries – in SciTLDR the reference summaries typically start with “We” or “This paper”, while in CiteSum they often begin with “AuthorName et al ” (replaced by a special token “REF” during preprocessing). SciTLDR では参照サマリーは "We" または "This paper" で始まるのに対し、CiteSum では "AuthorName et al" で始まることが多い(前処理中に特別なトークン "REF" に置き換えられる)。
訳抜け防止モード: しかしながら、注目すべき違いの1つは要約の視点である – scitldrでは、参照要約は通常“we”から始まる。 あるいは “this paper ” のように、citesum では “authorname et al ” (前処理時に “ref ” という特別なトークンに置き換えられる) で始まることが多い。
0.68
We propose two simple techniques to tackle such subtle style differences when adapting CITES to SciTLDR in a zero-shot setting without fine-tuning. ゼロショット設定でCITESをSciTLDRに微調整することなく適用する場合に,このような微妙なスタイルの違いに対処する2つの簡単な手法を提案する。 0.53
The first technique is post-processing: we replace “REF” with “This paper” if the summary begins with “REF” and remove all other “REF” within the summary. 最初のテクニックは後処理です – 要約が "REF" から始まるならば "この論文" に "REF" を置き換えて,サマリ内の他の "REF" をすべて削除します。 0.82
The second technique is prompting: we use “This paper” as a prompt in the model decoder such that the summary always starts with “This paper”. モデルデコーダのプロンプトとして“this paper”を使用し、サマリは常に“this paper”から始まります。
訳抜け防止モード: 2つ目のテクニックはプロンプトです :「この紙」をモデルデコーダのプロンプトとして使用する。 要約は常に“この論文”から始まる。
0.77
Similarly, in the few-shot setting, we replace the leading “We” with “This paper REF” in the reference summaries of SciTLDR (on the training set only) to alleviate the style mismatch. 同様に、少数ショット設定では、スタイルミスマッチを緩和するために、scitldrの参照要約(トレーニングセットのみ)の“we”を“this paper ref”に置き換えます。 0.63
We use BART-large (Lewis et al , 2020) as the base model of CITES since most baselines on SciTLDR, including the state-of-the-art methods, use the same base model. 最新の手法を含むほとんどのscitldrのベースラインが同じベースモデルを使っているため、引用のベースモデルとしてbart-large(lewis et al , 2020)を使用します。 0.68
Zero-shot Results In Table 6, we show the performance comparison of different methods on SciTLDR. ゼロショット結果 表6では、SciTLDR上の異なるメソッドのパフォーマンス比較を示す。 0.78
In the zero-shot setting, CITES (post-processing) outperforms competitive fully- ゼロショット設定では、CITES (post-processing) が完全に競合する。 0.57
supervised baselines such as BERTSum (Liu and Lapata, 2019). BERTSum (Liu and Lapata, 2019)のような教師付きベースライン。 0.65
CITES (prompting) performs even better than CITES (post-processing), outperforming the fully-supervised BART model it is based upon. CITES (prompting) は CITES (post-processing) よりもパフォーマンスが良く、ベースとした完全に教師されたBARTモデルよりも優れている。 0.60
Such results demonstrate the benefits of pretraining on CiteSum. このような結果は、CiteSumでの事前トレーニングの利点を示している。 0.51
CITES (prompting), without any fine-tuning, is also on par with the state-of-theart method CATTS (Cachola et al , 2020), while slightly worse than CATTSXSUM, which pre-trains on the XSum dataset (Narayan et al , 2018) first. CITES(prompting)は、微調整なしで、最先端のCATTS(Cachola et al , 2020)と同等であるが、XSumデータセット(Narayan et al , 2018)で事前トレーニングを行うCATTSXSUMよりも若干劣っている。 0.69
We additionally test a zero-shot upper bound for CITES by providing our prompting model with the first 3 tokens in the reference summary (the most common ones are “We propose a” and “We present a”) such that it knows how to start to summarize and (hopefully) which aspect to focus on. また、参照要約で最初の3つのトークンをプロンプトモデル(最も一般的なものは「提案a」と「現在a」)で提供することで、CITESのゼロショット上限をテストし、どのアスペクトにフォーカスするかを理解できるようにします。
訳抜け防止モード: また、参照サマリの最初の3つのトークンをプロンプトモデルで提供することで、CITESのゼロショット上限をテストする(最も一般的なものは”)。 提案する」と「提示する」 ) 要約し始める方法を知っていて、どの側面にフォーカスするかを(できれば)知っています。
0.62
CITES (prompting, gold 3 tokens) achieves competitive ROUGE-1 and significantly better ROUGE2/L than the extractive upper bound EXT-ORACLE that has access to the entire reference summary. CITES (prompting, Gold 3 tokens) は、参照概要全体にアクセスする抽出上界 EXT-ORACLE よりも、競合するROUGE-1 と ROUGE2/L を著しく向上させる。 0.67
Few-shot Results In the few-shot setting, CITES with 32 examples improves over its zero-shot counterpart. 少ないショット結果 数ショット設定では、32例のCITESはゼロショットよりも改善されている。 0.59
Furthermore, 128-shot CITES outperforms all fully-supervised methods and achieves new state-of-the-art results on SciTLDR. さらに、128ショットのCITESは全教師付き手法より優れており、SciTLDRの新たな最先端結果が得られる。 0.41
In contrast, a 128-shot BART model without first pre-training on CiteSum largely lags behind, performing even worse than our zero-shot CITES. 対照的に、CiteSumで事前トレーニングをしていない128ショットのBARTモデルは、ほとんど遅れており、ゼロショットのCITESよりもさらにパフォーマンスが悪くなっています。
訳抜け防止モード: 一方、CiteSumでのトレーニングは128発のBARTモデルがほとんど遅れている。 パフォーマンスはゼロよりさらに悪い - ショットCITES。
0.70
Such results again show the effectiveness of our pre-training strategy and the quality of CiteSum despite being automatically created thanks to our quality control. このような結果から,品質管理によって自動生成されるにもかかわらず,事前学習戦略の有効性とCiteSumの品質が再び示された。 0.66
Data Overlap To ensure that the superior generalizability of CITES does not merely come from data leakage, we detect the overlap between CiteSum and SciTLDR. データオーバーラップ CITES の優れた一般化性は,単にデータ漏洩によるものではなく,CiteSum と SciTLDR の重複を検出する。 0.74
We consider two papers (near) identical if their TF-IDF cosine similarity is greater than 0.9 and find that only 9.7% papers in the test set of SciTLDR appear in the training set of CiteSum. TF-IDFのコサイン類似度が0.9以上であれば、2つの論文(ほぼ)が同一であり、CiteSumのトレーニングセットにはSciTLDRのテストセットの9.7%の論文しか存在しない。 0.72
Also, note that the training labels in CiteSum are automatically extracted citation sentences and different from SciTLDR. また、CiteSumのトレーニングラベルは自動的に引用文を抽出し、SciTLDRとは異なることに注意する。 0.69
4.2 Scientific Discipline Classification and 4.2 科学分野の分類・分類 0.59
Title Generation We have demonstrated the effectiveness of CITES on the task of scientific extreme summarization. タイトル生成 我々は,CITESが科学的極端要約の課題に与える影響を実証した。 0.68
Next, we explore the feasibility of transferring CITES to more diverse tasks. 次に,より多様なタスクへのCITES転送の実現可能性について検討する。 0.58
Setup We evaluate CITES with the task of scientific discipline classification and title generation. セットアップ CITES を科学分野の分類とタイトル生成のタスクで評価する。 0.73
英語(論文から抽出)日本語訳スコア
Title Generation Method R-1 52.03 BART 52.50 CITES タイトル生成 r-1 52.03 bart 52.50 の引用法 0.57
R-2 30.15 30.42 R-2 30.15 30.42 0.24
Discipline Classification R-L Macro-F1 Weighted-F1 45.99 46.26 規則分類 R-L Macro-F1 Weighted-F1 45.99 46.26 0.44
0.77 0.78 0.24 0.30 0.77 0.78 0.24 0.30 0.25
Table 7: Comparison of CITES and its base model (BART) on title generation and discipline classification. 表7: CITESとそのベースモデル(BART)のタイトル生成と規律分類の比較。 0.74
Similar to the multi-task experiments in Sec. 3, we use the same dataset split and model input, while replacing the generation target from summaries (citation texts) to the discipline or title of the papers. sec.3のマルチタスク実験と同様に、私たちは同じデータセット分割とモデル入力を使い、生成対象を要約(引用テキスト)から論文の規律またはタイトルに置き換えます。 0.73
Examples with unavailable discipline or title are removed. 使用できない規律やタイトルの例が削除される。 0.57
We use BART-large as the base model for this experiment and compare BART with CITES in an apple-to-apple comparison. この実験のベースモデルとしてBART-largeを使用し、リンゴとリンゴの比較においてBARTとCITESを比較した。
訳抜け防止モード: 私たちはこの実験のベースモデルとしてBARTを使用します そして、BARTとCITESを比較します。
0.73
Results In Table 7, we show the performance comparison on title generation and discipline classification. 結果,表7ではタイトル生成と規律分類のパフォーマンス比較を行った。 0.76
CITES consistently outperforms BART on both tasks, although the differences are not as significant as in other low-resource transfer experiments. CITESはBARTを両タスクで一貫して上回っているが、他の低リソース転送実験ほど大きな差はない。 0.68
The moderate gains are possibly because there is abundant training data for the two tasks and continuous pre-training thus does not help much. 2つのタスクには豊富なトレーニングデータがあり、継続的な事前トレーニングがあまり役に立たないため、適度な向上が考えられる。 0.68
As evidence, the (unweighted) Macro-F1 of CITES is considerably better than BART, which we found is because CITES performs well on those disciplines with fewer examples. 証拠として、CITESの(非重みのない)マクロF1は、BARTよりもかなり優れていることが判明した。
訳抜け防止モード: 証拠として、CITESのマクロ-F1はBARTよりもかなり優れている。 私たちが発見したのは CITESは、より少ない例でこれらの分野でうまく機能する。
0.63
Regarding the Weighted-F1, CITES is only slightly better as most papers belong to a single discipline (computer science) that dominates the score. 重み付きF1に関しては、ほとんどの論文がスコアを支配する単一の分野(コンピュータ科学)に属するため、CITESはわずかに優れている。 0.73
4.3 News Extreme Summarization Setup With the success on different tasks in the scientific domain, we next evaluate CITES on a more difficult setting where the domain is significantly different while the task is still extreme summarization. 4.3 news extreme summarization setup with the success on different tasks in the scientific domain 次に、タスクが極端な要約であるにもかかわらず、ドメインが著しく異なるという、より難しい設定で引用を評価する。 0.70
We take the XSum dataset (Narayan et al , 2018) in the news domain for this purpose. この目的のために、ニュースドメインのXSumデータセット(Narayan et al , 2018)を取り上げます。 0.81
We mainly use PEGASUS-large (Zhang et al , 2020) as the base model of CITES as its fullysupervised version holds the state-of-the-art results on XSum. 我々は主にCITESのベースモデルとして PEGASUS-large (Zhang et al , 2020) を用いており、そのフル教師付きバージョンはXSumの最先端結果を保持する。 0.67
We additionally evaluate CITESTitle in the zero-shot setting, which is the variant used for title generation in Sec. 4.2. また、Sec.4.2のタイトル生成に使用される変種であるゼロショット設定でCITESTitleを評価する。 0.76
Zero-shot Results In Table 8, we show the results on XSum with various training data sizes. ゼロショット結果 表8では、さまざまなトレーニングデータサイズでXSumの結果を示します。 0.81
In the zero-shot setting, CITES significantly improves over its base model PEGASUS (+7.2 ROUGE-1). ゼロショット設定では、CITESはベースモデル PEGASUS (+7.2 ROUGE-1) よりも大幅に改善されている。 0.57
In addition, CITES is on par with other pre-trained また、CITESは他の事前訓練と同等である。 0.64
Method Fully-supervised PTGEN (See et al , 2017) BERTSum (Liu and Lapata, 2019) BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) Zero-shot BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) T5-LB (Zhu et al , 2021) BART-LB (Zhu et al , 2021) WikiTransfer (Fabbri et al , 2021) CITES CITESTitle 10-shot BART (Lewis et al , 2020) PEGASUS(Zhang et al , 2020) WikiTransfer (Fabbri et al , 2021) CITES 100-shot BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) WikiTransfer (Fabbri et al , 2021) CITES Method Fully-supervised PTGEN (See et al , 2017) BERTSum (Liu and Lapata, 2019) BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) Zero-shot BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) T5-LB (Zhu et al , 2021) BART-LB (Zhu et al , 2021) WikiTransfer (Fabbri et al , 2021) CITES CITESTitle 10-shot BART (Lewis et al , 2020) PEGASUS(Zhang et al , 2020) WikiTransfer (Fabbri et al , 2021) CITES 100-shot BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) WikiTransfer (Fabbri et al , 2021) CITES
訳抜け防止モード: method complete - supervised ptgen (see et al, 2017 ) bertsum (liu and lapata) 2019年) bart (lewis et al, 2020年) pegasus (zhang et al, 2020年) 2020年) zero - shot bart (lewis et al, 2020年) pegasus (zhang et al, 2020年) 2020年) t5-lb (zhu et al, 2021年) bart - lb (zhu et al, 2021年) 2021年) wikitransfer (fabbri et al, 2021年) 引用は 10-shot bart (lewis et al, 2020年) pegasus (zhang et al, 2020年)。 2020年) wikitransfer (fabbri et al, 2021年) は 100 発のbart (lewis et al, 2021年) を引用している。 pegasus (zhang et al , 2020 ) wikitransfer (fabbri et al , 2021 ) 引用
0.63
R-1 R-2 R-L R-1 R-2 R-L 0.29
29.70 38.81 45.14 47.21 29.70 38.81 45.14 47.21 0.23
15.40 19.27 26.06 26.18 31.85 26.43 28.21 15.40 19.27 26.06 26.18 31.85 26.43 28.21 0.21
31.34 19.39 35.17 36.21 31.34 19.39 35.17 36.21 0.23
34.16 39.07 37.26 41.45 34.16 39.07 37.26 41.45 0.23
9.21 16.50 22.27 24.56 9.21 16.50 22.27 24.56 0.23
2.63 3.00 6.77 7.60 10.44 7.17 8.40 2.63 3.00 6.77 7.60 10.44 7.17 8.40 0.21
9.98 3.45 12.76 14.22 9.98 3.45 12.76 14.22 0.23
12.62 16.44 14.20 18.74 12.62 16.44 14.20 18.74 0.23
23.24 31.27 37.25 39.25 23.24 31.27 37.25 39.25 0.23
10.74 12.72 20.47 20.92 23.75 19.64 21.81 10.74 12.72 20.47 20.92 23.75 19.64 21.81 0.21
23.44 14.02 26.80 28.18 23.44 14.02 26.80 28.18 0.23
26.66 31.27 28.85 33.29 26.66 31.27 28.85 33.29 0.23
Table 8: Performance comparison on the XSum dataset (Narayan et al , 2018). 表8: XSumデータセットのパフォーマンス比較(Narayan et al , 2018)。 0.75
Our few-shot results are averaged over 3 runs. 我々の数回の結果は平均3回以上だ。 0.58
models such as BART-LB and T5-LB (Zhu et al , 2021), which are specifically designed to leverage the lead bias in the news domain and require much more resources (32 vs. 1 GPU, 21.4M vs. 83K training examples) for summarization pre-training. BART-LBやT5-LB(Zhu et al , 2021)のようなモデルでは、ニュース領域のリードバイアスを活用するように設計されており、要約事前トレーニングにはより多くのリソース(32対1 GPU、21.4M対83Kトレーニング例)を必要とする。 0.66
CITESTitle further improves over CITES and outperforms most zero-shot baselines (+8.9 ROUGE-1 over PEGASUS). CITESTitleはCITESをさらに改善し、ほとんどのゼロショットベースライン(+8.9 ROUGE-1 over PEGASUS)を上回っている。 0.56
CITESTitle does not outperform WikiTransfer (Fabbri et al , 2021), which is somewhat expected as WikiTransfer carefully prepares its pre-training data to specific downstream tasks given, e g , summary length and its level of abstraction. CITESTitle は WikiTransfer (Fabbri et al , 2021) に勝ってはいないが、WikiTransfer は特定の下流タスク(例えば、要約長と抽象化のレベル)に事前学習したデータを慎重に準備している。 0.78
Unlike WikiTransfer (Fabbri et al , 2021), CITES does not involve any downstream taskspecific data selection or model tuning – we use the same CiteSum corpus in all the experiments. WikiTransfer (Fabbri et al , 2021)とは異なり、CITESはダウンストリームのタスク固有のデータ選択やモデルチューニングを一切含まない。
訳抜け防止モード: WikiTransfer (Fabbri et al, 2021 ) とは異なり、CITES はダウンストリームのタスク固有のデータ選択やモデルチューニングを一切含まない。 すべての実験で同じCiteSumコーパスを使用します。
0.74
Few-shot Results When given a few examples for fine-tuning, CITES quickly adapts to the new task despite the domain mismatch during pretraining. 微調整の例がいくつか与えられると、事前トレーニング中のドメインミスマッチにもかかわらず、citesは新しいタスクに素早く適応する。 0.55
We observe that CITES consistently outperforms not only its base model but all other baseline methods, including WikiTransfer, and achieves state-of-the-art few-shot performance on XSum. citesはベースモデルだけでなく、ウィキトランスファーを含む他のすべてのベースラインメソッドよりも一貫して優れており、xsumで最先端の少数ショット性能を達成している。 0.52
In particular, CITES performs better than fullysupervised methods such as BERTSum (Liu and Lapata, 2019) with only 100 examples. 特に、CITESは、BERTSum (Liu and Lapata, 2019) のような完全に教師されたメソッドよりも、わずか100の例でパフォーマンスがよい。 0.55
英語(論文から抽出)日本語訳スコア
Method Fully-supervised PEGASUS (Zhang et al , 2020) Unsupervised SEQ3 (Baziotis et al , 2019) Brief (Wang and Lee, 2018) TED (Yang et al , 2020) Zero-shot T5 (Raffel et al , 2020) BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) T5-LB (Zhu et al , 2021) BART-LB (Zhu et al , 2021) CITES CITESTitle Method Fully-supervised PEGASUS (Zhang et al , 2020) Unsupervised SEQ3 (Baziotis et al , 2019) Brief (Wang and Lee, 2018) TED (Yang et al , 2020) Zero-shot T5 (Raffel et al , 2020) BART (Lewis et al , 2020) PEGASUS (Zhang et al , 2020) T5-LB (Zhu et al , 2021) BART-LB (Zhu et al , 2021) CITES CITESTitlele
訳抜け防止モード: method complete - supervised pegasus (zhang et al, 2020) unsupervised seq3 (baziotis et al,) 2019年)ブリーフ(wang and lee, 2018年) ted (yang et al, 2020年) zero - shot t5 (raffel et al, 2020年) bart (lewis et al, 2020年) 2020年)pegasus (zhang et al, 2020年) t5-lb (zhu et al, 2021年) bart - lb (zhu et al, 2020年) 2021年)は引用タイトルを引用する
0.69
R-1 R-2 R-L R-1 R-2 R-L 0.29
39.12 19.86 39.12 19.86 0.29
36.24 25.39 21.26 25.58 36.24 25.39 21.26 25.58 0.26
15.67 22.07 23.39 24.00 25.14 24.75 27.87 15.67 22.07 23.39 24.00 25.14 24.75 27.87 0.21
8.21 5.60 8.94 8.21 5.60 8.94 0.24
4.86 7.47 7.59 8.19 8.72 8.42 10.43 4.86 7.47 7.59 8.19 8.72 8.42 10.43 0.21
22.68 18.89 22.83 22.68 18.89 22.83 0.24
14.38 20.02 20.20 21.62 22.35 21.84 24.56 14.38 20.02 20.20 21.62 22.35 21.84 24.56 0.21
Table 9: Performance comparison on the Gigaword news headline generation dataset (Rush et al , 2015). 表9: Gigawordニュース見出し生成データセットのパフォーマンス比較(Rush et al , 2015)。 0.75
4.4 News Headline Generation Setup To take a step further, we study the transfer performance of CITES to news headline generation. 4.4 ニュース見出し生成セットアップ 一歩前進するために,CITES のニュース見出し生成への転送性能について検討する。 0.74
We use the Gigaword headline generation dataset (Rush et al , 2015) for this evaluation. この評価にはGigawordの見出し生成データセット(Rush et al , 2015)を用いる。 0.77
We again consider two variants of CITES, one pretrained with citation texts as the generation target and the other further pretrained with paper titles as in Sec. 4.2. 引用の2つの変種を再度検討する。1つは引用テキストを生成対象とし、もう1つは第4.2に記載された紙タイトルで事前学習されている。
訳抜け防止モード: 我々は再びCITESの2つの変種について考察する。 そしてもう1つはSec .4.2 のように論文のタイトルで事前訓練された。
0.62
We use BART-large (Lewis et al , 2020) as the base model in this evaluation. 本評価では,BART-large (Lewis et al , 2020) をベースモデルとして用いた。 0.78
Results In Table 9, we show the results of various methods on news headline generation. 結果 表9では,ニュース見出し生成における様々な手法の結果を示す。 0.86
CITES again outperforms its base model (BART) significantly and achieves competitive performance with most unsupervised and zero-shot methods designed for news summarization (Zhang et al , 2020; Zhu et al , 2021). CITESは再びベースモデル(BART)を大幅に上回り、ニュース要約用に設計された殆どの教師なしおよびゼロショットの手法(Zhang et al , 2020; Zhu et al , 2021)との競争性能を達成する。 0.73
CITESTitle further achieves state-ofthe-art zero-shot performance despite pre-training on the scientific domain, demonstrating the generalizability and usefulness of CiteSum. CITESTitleは、科学領域での事前訓練にもかかわらず、最先端のゼロショットのパフォーマンスをさらに達成し、CiteSumの一般化性と有用性を示している。 0.46
5 Related Work Citation Text Generation There have been prior studies utilizing citation texts for different purposes. 5 関連作業 引用テキスト生成 引用テキストを様々な目的に活用する先行研究がある。 0.74
One popular line of work focuses on the generation of the citation texts for writing assistance or paper comparison (Xing et al , 2020; Luu et al , 2021; Chen et al , 2021; Ge et al , 2021). 一般的な作品の1つは、筆記補助や論文比較のための引用文の生成に焦点を当てている(Xing et al , 2020; Luu et al , 2021; Chen et al , 2021; Ge et al , 2021)。 0.88
However, they typically do not distinguish the citation texts that can serve as summaries of the cited paper from those used for other purposes, e g , background or result comparison (Cohan et al , 2019). しかし、典型的には引用された論文の要約として使える引用テキストと、他の目的、例えば背景比較や結果比較に使われる引用テキストを区別しない(cohan et al , 2019)。 0.70
For example, Chen et al (2021) treat citation text generation 例えば Chen et al (2021) は引用テキスト生成を扱います 0.81
as a multi-document summarization task, where the target output is a paragraph with more than two citations and the model input is the abstracts of all cited papers. 多文書要約タスクとして、対象出力が2以上の引用を含む段落であり、モデル入力が引用されたすべての論文の要約である。 0.78
There is no filtering regarding the citation texts and all the paragraphs with enough citations are included. 引用文についてはフィルタリングがなく、十分な引用文を含む全段落が含まれる。 0.71
Besides including citation texts with various intents and the lack of quality control, prior studies differ from CiteSum in that they target longer outputs, e g , multiple sentences (Xing et al , 2020) or the entire Related Work section (Lu et al , 2020; Chen et al , 2021). 様々な意図の引用テキストや品質管理の欠如に加えて、CiteSumとは、より長いアウトプット、例えば、複数の文(Xing et al , 2020)、あるいは関連する作業部全体(Lu et al , 2020; Chen et al , 2021)をターゲットにした先行研究が異なる。 0.77
Citation Text for Paper Summarization Another line of work does not generate but extracts the citation texts and either uses them to form a summary directly (Nakov et al , 2004; Abu-Jbara and Radev, 2011; Qazvinian et al , 2013) or treats them as a bridge to the cited paper (Cohan and Goharian, 2015; Yasunaga et al , 2019). Citation Text for Paper Summarization 別の作品の行は生成せず引用文を抽出し、直接的に要約を形成する(Nakov et al , 2004; Abu-Jbara and Radev, 2011; Qazvinian et al , 2013)か、引用された論文のブリッジとして扱う(Cohan and Goharian, 2015; Yasunaga et al , 2019)。 0.80
Specifically, the citation texts in the latter studies are used to find relevant contexts in the cited paper (called citation contexts). 特に、後者の研究における引用テキストは、引用された論文(引用文脈と呼ばれる)の関連する文脈を見つけるために使われる。
訳抜け防止モード: 特に後者の研究における引用文は 引用した論文で関連する文脈を見つける(引用コンテキストと呼ばれる)。
0.76
Then, a long summary is formulated primarily using the cited paper, e g , by selecting sentences from the citation contexts (Cohan and Goharian, 2015). 次に、引用文脈から文を選択することにより、引用した論文egを主に用いた長い要約を定式化する(Cohan and Goharian, 2015)。 0.73
Unlike CITES, prior citationbased summarization methods require (often multiple) citation texts of a paper as input, which are unavailable for new papers. CITESとは異なり、先行的な引用に基づく要約法は、新しい論文では利用できない、(しばしば複数の)論文の引用テキストを入力として要求する。 0.56
In addition, they do not target ultra-short but abstract-long summaries. また、極端に短いが抽象的な要約を対象としない。 0.58
Extreme Summarization Extreme summarization aims to form ultra-short summaries of the documents. 極端要約 極端要約は、文書の超短要約を形成することを目的としている。 0.44
Notable benchmarks in this direction include XSum (Narayan et al , 2018) in the news domain, SciTLDR (Cachola et al , 2020) in the scientific domain, and Webis-TLDR-17 (Völske et al , 2017) for social media summarization. この方向の注目すべきベンチマークは、ニュースドメインのxsum (narayan et al , 2018)、科学ドメインのscitldr (cachola et al , 2020)、ソーシャルメディアの要約のためのwebis-tldr-17 (völske et al , 2017)である。
訳抜け防止モード: この方向の注目すべきベンチマークには、ニュースドメインのXSum(Narayan et al, 2018)がある。 科学分野におけるSciTLDR(Cachola et al, 2020) and Webis - TLDR-17 (Völske et al, 2017) for social media summarization
0.81
Compared to SciTLDR, our CiteSum dataset is significantly larger in scale, from more venues than OpenReview, and composed of various disciplines. SciTLDRと比較して、私たちのCiteSumデータセットは、OpenReviewよりも多くの会場から大きく、さまざまな分野で構成されています。 0.67
6 Conclusion In this paper, we propose a simple yet effective approach to automatically extracting ultra-short paper summaries from citation texts. 6 結論 本稿では,引用文からウルトラショート紙要約を自動的に抽出する,シンプルかつ効果的な手法を提案する。 0.71
Based on the proposed approach, we create a large-scale, highquality benchmark for scientific extreme summarization. 提案手法に基づき,科学的極端な要約のための大規模かつ高品質なベンチマークを作成する。 0.62
We conduct a comprehensive analysis on the created benchmark and further demonstrate that models pre-trained on it exhibit superior generalizability to new tasks and domains such as news extreme summarization and headline generation. 作成したベンチマークの包括的解析を行い、事前学習したモデルがニュースの極端な要約や見出し生成のような新しいタスクや領域に優れた一般化性を示すことを示す。 0.65
英語(論文から抽出)日本語訳スコア
References Amjad Abu-Jbara and Dragomir Radev. Amjad Abu-Jbara と Dragomir Radev を参照。 0.74
2011. Coherent citation-based summarization of scientific papers. 2011. コヒーレント引用に基づく科学論文の要約 0.59
In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pages 500–509, Portland, Oregon, USA. 第49回計算言語学会年次総会の議事録では,米国オレゴン州ポートランド,500-509ページが紹介されている。 0.60
Association for Computational Linguistics. Christos Baziotis, 計算言語学会会員。 Christos Baziotis 0.40
Ion Androutsopoulos, イオン・アンドルーソポーロス 0.49
Ioannis Konstas, and Alexandros Potamianos. イオアニス・コンスタス、アレクサンドロス・ポタミアーノス。 0.32
2019. SEQˆ3: Differentiable sequence-to-sequence -to-sequence autoencoder for unsupervised abstractive sentence In Proceedings of the 2019 Concompression. 2019. SEQ.3: 教師なし抽象文のための区別可能なシーケンス・ツー・シーケンス・ツー・シーケンス・オートエンコーダ。 0.43
ference of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 673–681, Minneapolis, Minnesota. The Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 673–681, Minneapolis (ミネソタ州)を参照。
訳抜け防止モード: 計算言語学会の立場から : ヒューマン・ランゲージ・テクノロジー 第1巻(ロング・アンド・ショート・ペーパーズ)673-681頁、ミネソタ州ミネアポリス。
0.62
Association for Computational Linguistics. the North American Chapter of 計算言語学会会員。 北米の章 0.47
Isabel Cachola, Kyle Lo, Arman Cohan, and Daniel Weld. Isabel Cachola、Kyle Lo、Arman Cohan、Daniel Weld。 0.67
2020. TLDR: Extreme summarization of sciIn Findings of the Association entific documents. 2020. tldr:the association entific documentsのサイシン所見の極端な要約。 0.59
for Computational Linguistics: EMNLP 2020, pages 4766–4777, Online. 計算言語学について: emnlp 2020, pages 4766-4777, online 0.72
Association for Computational Linguistics. Xiuying Chen, Hind Alamro, Mingzhe Li, Shen Gao, Xiangliang Zhang, Dongyan Zhao, and Rui Yan. 計算言語学会会員。 Xiuying Chen, Hind Alamro, Mingzhe Li, Shen Gao, Xiangliang Zhang, Dongyan Zhao, Rui Yan 0.43
2021. Capturing relations between scientific papers: An abstractive model for related work section genIn Proceedings of the 59th Annual Meeteration. 2021. 学術論文間の関係の把握:関連研究部門における抽象モデルgenIn 第59回年次大会の成果 0.60
ing of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 6068–6077, Online. The Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), page 6068–6077, Online. (英語)
訳抜け防止モード: 計算言語学会と第11回国際自然言語処理合同会議(第1巻 : 長文論文) 6068-6077頁。
0.56
Association for Computational Linguistics. Arman Cohan, Waleed Ammar, Madeleine van Zuylen, and Field Cady. 計算言語学会会員。 arman cohan氏、waleed ammar氏、madeleine van zuylen氏、field cady氏。 0.55
2019. Structural scaffolds for citation intent classification in scientific publications. 2019. 科学論文における引用意図分類のための構造的足場 0.56
In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 3586–3596, Minneapolis, Minnesota. The 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 3586–3596, Minneapolis, Minnesota
訳抜け防止モード: 計算言語学会北米支部2019年大会の成果 : ヒューマン・ランゲージ・テクノロジー 第1巻(ロング・アンド・ショート・ペーパーズ)3586-3596頁、ミネソタ州ミネアポリス。
0.52
Association for Computational Linguistics. Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Seokhwan Kim, Walter Chang, and Nazli Goharian. 計算言語学会会員。 Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Seokhwan Kim, Walter Chang, Nazli Goharian。
訳抜け防止モード: 計算言語学会会員。 Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui ソクワン・キム、ウォルター・チャン、ナズリ・ゴハリアン。
0.60
2018. A discourse-aware attention model for abstractive summarization of long docuIn Proceedings of the 2018 Conference of ments. 2018. 2018 ments 会議における長時間ドキュイン手続きの要約的要約のための談話認識注意モデル 0.56
the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pages 615–621, New Orleans, Louisiana. the north american chapter of the association for computational linguistics: human language technologies, volume 2 (short papers) ルイジアナ州ニューオーリンズの615-621ページ。 0.73
Association for Computational Linguistics. Alexander Fabbri, Simeng Han, Haoyuan Li, Haoran Li, Marjan Ghazvininejad, Shafiq Joty, Dragomir Radev, and Yashar Mehdad. 計算言語学会会員。 Alexander Fabbri, Simeng Han, Haoyuan Li, Haoran Li, Marjan Ghazvininejad, Shafiq Joty, Dragomir Radev, Yashar Mehdad。 0.45
2021. Improving zero and few-shot abstractive summarization with intermediate fine-tuning and data augmentation. 2021. 中間微細チューニングとデータ拡張によるゼロおよび少数ショット抽象要約の改善。 0.58
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 704–717, Online. The Association for Computational Linguistics: Human Language Technologies, page 704–717, Online. (英語)
訳抜け防止モード: 計算言語学会北米支部2021年度大会報告 : ヒューマン・ランゲージ・テクノロジー 704-717頁、オンライン。
0.45
Association for Computational Linguistics. Yubin Ge, Ly Dinh, Xiaofeng Liu, Jinsong Su, Ziyao Lu, Ante Wang, and Jana Diesner. 計算言語学会会員。 Yubin Ge, Ly Dinh, Xiaofeng Liu, Jinsong Su, Ziyao Lu, Ante Wang, Jana Diesner
訳抜け防止モード: 計算言語学会会員。 ユビン・ゲ、ライ・ディン、Xiaofeng Liu、ジンソン・スー Ziyao Lu、Ante Wang、Jana Diesner。
0.54
2021. BACO: A background knowledge- and content-based frameIn Proceedwork for citing sentence generation. 2021. baco: 文生成を引用する背景知識とコンテンツベースのフレームイン作業。 0.57
ings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 1466–1478, Online. 第59回計算言語学会年次大会と第11回自然言語処理国際合同会議(第1巻:長い論文)、1466-1478ページオンライン。 0.64
Association for Computational Linguistics. Kokil Jaidka, Muthu Kumar Chandrasekaran, Sajal Rustagi, and Min-Yen Kan. 2016. 計算言語学会会員。 Kokil Jaidka, Muthu Kumar Chandrasekaran, Sajal Rustagi, Min-Yen Kan. 2016 0.47
Overview of the CL-SciSumm 2016 shared task. CL-SciSumm 2016の概要 共有タスク。 0.80
In Proceedings of the Joint Workshop on Bibliometric-enhance d Information Retrieval and Natural Language Processing for Digital Libraries (BIRNDL), pages 93–102. the joint workshop on bibliometricenhanced information retrieval and natural language processing for digital libraries (birndl) の93-102ページ。
訳抜け防止モード: 電子図書館のための情報検索と自然言語処理に関する共同ワークショップ(BIRNDL)の開催報告 93-102頁。
0.64
Guy Lev, Michal Shmueli-Scheuer, Jonathan Herzig, Achiya Jerbi, and David Konopnicki. Guy Lev、Michal Shmueli-Scheuer、Jonathan Herzig、Achiya Jerbi、David Konopnicki。 0.39
2019. TalkSumm: A dataset and scalable annotation method for scientific paper summarization based on conference talks. 2019. talksumm: カンファレンス講演に基づいた科学論文要約のためのデータセットとスケーラブルなアノテーション手法。 0.57
In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 2125–2131, Florence, Italy. 第57回計算言語学会年次総会では、イタリアのフィレンツェで2125-2131頁が開催された。 0.64
Association for Computational Linguistics. Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. 計算言語学会会員。 Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, Luke Zettlemoyer。 0.45
2020. BART: Denoising sequence-to-sequence pretraining for natural language generation, translation, and comprehension. 2020. BART: 自然言語の生成、翻訳、理解のためのシーケンス・ツー・シーケンスの事前学習。 0.50
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 7871–7880, Online. 第58回計算言語学会年次総会の議事録では、7871-7880ページがオンラインで公開されている。 0.51
Association for Computational Linguistics. Chin-Yew Lin. 計算言語学会会員。 Chin-Yew Lin 0.47
2004. ROUGE: A package for automatic evaluation of summaries. 2004. rouge: 要約の自動評価のためのパッケージ。 0.52
In Text Summarization Branches Out, pages 74–81, Barcelona, Spain. 英語) Text Summarization Branches Out, page 74–81, Barcelona, Spain. 0.89
Association for Computational Linguistics. Yang Liu and Mirella Lapata. 計算言語学会会員。 ヤン・リウとミレラ・ラパタ。 0.48
2019. Text summarizaIn Proceedings of tion with pretrained encoders. 2019. テキストsummarizain proceedings of tion with pretrained encoder. 0.60
the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3730–3740, Hong Kong, China. 2019年自然言語処理における経験的手法に関する会議と第9回国際自然言語処理合同会議(emnlp-ijcnlp)は、香港の3730-3740ページである。 0.74
Association for Computational Linguistics. Arman Cohan and Nazli Goharian. 計算言語学会会員。 アルマン・コーハンとナズリ・ゴハリアン。 0.45
2015. Scientific article summarization using citation-context and article’s discourse structure. 2015. 引用文脈を用いた科学記事要約と論文の談話構造 0.58
In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 390–400, Lisbon, Portugal. 2015年の自然言語処理における経験的手法に関する会議(Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, 390–400, Lisbon, Portugal)。
訳抜け防止モード: 自然言語処理における経験的手法に関する2015年会議のまとめ 390-400頁、リスボン、ポルトガル。
0.74
Association for Computational Linguistics. Kyle Lo, Lucy Lu Wang, Mark Neumann, Rodney Kinney, and Daniel Weld. 計算言語学会会員。 カイル・ロ、ルーシー・ルー・ワン、マーク・ノイマン、ロドニー・キニー、ダニエル・ウェルド。 0.51
2020. S2ORC: The semantic scholar open research corpus. 2020. S2ORC: 意味学者が研究コーパスを開く。 0.56
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 4969–4983, Online. 第58回計算言語学会年次総会において、オンライン上で4969-4983頁。 0.60
Association for Computational Linguistics. 計算言語学会会員。 0.52
英語(論文から抽出)日本語訳スコア
Yao Lu, Yue Dong, and Laurent Charlin. ヤオ・ル、ユー・ドン、ローラン・シャルリン。 0.51
2020. MultiXScience: A large-scale dataset for extreme multidocument summarization of scientific articles. 2020. MultiXScience: 科学論文の超多文書要約のための大規模データセット。 0.61
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 8068–8074, Online. 自然言語処理における経験的手法に関する2020年会議(emnlp)の議事録では、8068-8074ページがオンラインで公開されている。
訳抜け防止モード: 自然言語処理における経験的手法に関する2020年会議(EMNLP)の開催報告 8068-8074頁。
0.69
Association for Computational Linguistics. Abigail See, Peter J. Liu, and Christopher D. Manning. 計算言語学会会員。 アビゲイル・シー、ピーター・J・リュー、クリストファー・D・マニング。 0.49
2017. Get to the point: Summarization with pointergenerator networks. 2017. ポイントに着目してください。 ポインタジェネレータネットワークによる要約。 0.48
In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1073– 1083, Vancouver, Canada. 第55回計算言語学会年次大会(Volume 1: Long Papers)において,1073-1083頁,カナダのバンクーバー。 0.60
Association for Computational Linguistics. Kelvin Luu, Xinyi Wu, Rik Koncel-Kedziorski, Kyle Lo, Isabel Cachola, and Noah A. Smith. 計算言語学会会員。 ケルヴィン・ルー、シニー・ウー、リック・コンセル=ケジオルスキー、カイル・ロ、イザベル・カショラ、ノア・a・スミス。 0.48
2021. Explaining relationships between scientific documents. 2021. 科学文書間の関係を説明する。 0.56
In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 2130–2144, Online. 第59回計算言語学会年次大会および第11回自然言語処理国際合同会議(第1巻:長い論文)の議事録において、2130-2144ページがオンラインで公開されている。 0.69
Association for Computational Linguistics. Yuning Mao, Liyuan Liu, Qi Zhu, Xiang Ren, and Jiawei Han. 計算言語学会会員。 ユニング・マオ、リヤン・リウ、チー・チュー、シアン・レン、ジウエイ・ハン。 0.47
2020. Facet-aware evaluation for extractive summarization. 2020. 抽出要約のためのファセットアウェア評価 0.56
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 4941–4957, Online. 第58回計算言語学会年次総会の議事録では、4941-4957頁がオンラインで公開されている。 0.53
Association for Computational Linguistics. Preslav I Nakov, Ariel S Schwartz, Marti Hearst, et al 2004. 計算言語学会会員。 preslav i nakov, ariel s schwartz, marti hearst, et al 2004 など。 0.59
Citances: Citation sentences for semantic In Proceedings of the analysis of bioscience text. citances: 生物科学のテキストの分析過程における意味の引用文。 0.82
SIGIR, volume 4, pages 81–88. 第4巻、81-88頁。 0.54
Citeseer. Shashi Narayan, Shay B. Cohen, and Mirella Lapata. シーザー。 Shashi Narayan, Shay B. Cohen, Mirella Lapata 0.39
2018. Don’t give me the details, just the summary! topic-aware convolutional neural networks for exIn Proceedings of the 2018 treme summarization. 2018. トピックを意識した畳み込みニューラルネットワークは、2018年のtreme要約のexinプロシージャのためのものだ。 0.46
Conference on Empirical Methods in Natural Language Processing, pages 1797–1807, Brussels, Belgium. 自然言語処理における経験的方法に関する会議 1797-1807頁, ベルギー, ブリュッセル 0.80
Association for Computational Linguistics. Rodrigo Nogueira, Zhiying Jiang, Ronak Pradeep, and Jimmy Lin. 計算言語学会会員。 Rodrigo Nogueira、Zhiying Jiang、Ronak Pradeep、Jimmy Lin。 0.61
2020. Document ranking with a preIn Findings trained sequence-to-sequence model. 2020. PreIn Findingsのトレーニングされたシーケンス・ツー・シーケンスモデルによる文書ランキング。 0.45
of the Association for Computational Linguistics: EMNLP 2020, pages 708–718, Online. The Association for Computational Linguistics: EMNLP 2020, page 708–718, Online. 0.45
Association for Computational Linguistics. Vahed Qazvinian, Dragomir R Radev, Saif M Mohammad, Bonnie Dorr, David Zajic, Michael Whidby, and Taesun Moon. 計算言語学会会員。 Vahed Qazvinian, Dragomir R Radev, Saif M Mohammad, Bonnie Dorr, David Zajic, Michael Whidby, Taesun Moon 0.44
2013. Generating extractive summaries of scientific paradigms. 2013. 科学パラダイムの抽出要約を生成する。 0.53
Journal of Artificial Intelligence Research, 46:165–201. journal of artificial intelligence research, 46:165–201 を参照。 0.63
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J Liu. コリン・ラフェル、ノーム・シャザー、アダム・ロバーツ、キャサリン・リー、シャラン・ナラン、マイケル・マテナ、ヤンチー・周、ウェイ・リー、ピーター・j・リュー。
訳抜け防止モード: Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li ピーター・J・リウ(Peter J Liu)。
0.89
2020. Exploring the limits of transfer learning with a unified text-to-text transformer. 2020. 統一テキスト-テキストトランスフォーマによるトランスファー学習の限界の検討 0.62
Journal of Machine Learning Research, 21:1–67. Journal of Machine Learning Research, 21:1–67。 0.38
Alexander M. Rush, Sumit Chopra, and Jason Weston. Alexander M. Rush、Sumt Chopra、Jason Weston。 0.76
2015. A neural attention model for abstractive senIn Proceedings of the 2015 tence summarization. 2015. 抽象的なSenIn Proceedings of the 2015 Tence summarizationのためのニューラルアテンションモデル 0.58
Conference on Empirical Methods in Natural Language Processing, pages 379–389, Lisbon, Portugal. ポルトガル, リスボン, 379-389頁, 自然言語処理における経験的方法に関する会議 0.74
Association for Computational Linguistics. Zhihong Shen, Hao Ma, and Kuansan Wang. 計算言語学会会員。 ジホン・シェン、ハオマ、クアンサン・ワン。 0.44
2018. A web-scale system for scientific knowledge exploration. 2018. 科学知識探索のためのWebスケールシステム。 0.63
In Proceedings of ACL 2018, System Demonstrations, pages 87–92, Melbourne, Australia. acl 2018の議事録、システムデモ、87-92ページ、メルボルン、オーストラリア。 0.60
Association for Computational Linguistics. Michael Völske, Martin Potthast, Shahbaz Syed, and TL;DR: Mining Reddit to Benno Stein. 計算言語学会会員。 Michael Völske氏、Martin Potthast氏、Shahbaz Syed氏、TL;DR: Mining Reddit to Benno Stein氏。 0.47
2017. In Proceedings of learn automatic summarization. 2017. 自動要約を学習する。 0.48
the Workshop on New Frontiers in Summarization, pages 59–63, Copenhagen, Denmark. The Workshop on New Frontiers in Summarization, page 59–63, Copenhagen, Denmark 0.41
Association for Computational Linguistics. Yaushian Wang and Hung-Yi Lee. 計算言語学会会員。 ヤシヤン・ワンとハン・ヨン・リー。 0.44
2018. Learning to encode text as human-readable summaries using generative adversarial networks. 2018. 生成的敵ネットワークを用いた人間の読みやすい要約としてテキストを符号化する学習 0.50
In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 4187–4195, Brussels, Belgium. 自然言語処理における経験的手法に関する2018年会議の議事録(4187-4195ページ、ベルギー・ブリュッセル)。
訳抜け防止モード: 自然言語処理における実証的手法に関する2018年会議のまとめ 4187-4195頁、ブリュッセル、ベルギー。
0.80
Association for Computational Linguistics. Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. 計算言語学会会員。 Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, Alexander Rush
訳抜け防止モード: 計算言語学会会員。 トーマス・ウルフ、lysandre、victor sanh、julien chaumond。 clement delangue, anthony moi, pierric cistac, tim rault, remi louf, モーガン・ファントウィッツ ジョー・デイヴィソン サム・シュライファー パトリック・フォン・プラトン clara ma, yacine jernite, julien plu, canwen xu, teven le scao, sylvain gugger, mariama drame, quentin lhoestなど。 アレキサンダー・ラッシュ
0.54
2020. Transformers: State-of-the-art natural language processing. 2020. Transformers: 最先端の自然言語処理。 0.61
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pages 38–45, Online. 自然言語処理における経験的手法に関する2020年会議の議事録:システムデモ、38-45ページオンライン。 0.76
Association for Computational Linguistics. Xinyu Xing, Xiaosheng Fan, and Xiaojun Wan. 計算言語学会会員。 Xinyu Xing、Xiaosheng Fan、Xiaojun Wan。 0.42
2020. Automatic generation of citation texts in scholarly papers: A pilot study. 2020. 学術論文における引用文の自動生成:パイロット研究 0.56
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 6181–6190, Online. 第58回計算言語学会年次総会の議事録では、6181-6190頁がオンラインで公開されている。 0.51
Association for Computational Linguistics. Ziyi Yang, Chenguang Zhu, Robert Gmyr, Michael Zeng, Xuedong Huang, and Eric Darve. 計算言語学会会員。 Ziyi Yang、Chenguang Zhu、Robert Gmyr、Michael Zeng、Xuedong Huang、Eric Darve。 0.43
2020. TED: A pretrained unsupervised summarization model In Findings with theme modeling and denoising. 2020. TED: 事前訓練された教師なしの要約モデル テーマモデリングと飾付による発見。 0.52
of the Association for Computational Linguistics: EMNLP 2020, pages 1865–1874, Online. en:association for computational linguistics: emnlp 2020, pages 1865–1874, online (英語) 0.73
Association for Computational Linguistics. Michihiro Yasunaga, Jungo Kasai, Rui Zhang, Alexander R Fabbri, Irene Li, Dan Friedman, and Dragomir R Radev. 計算言語学会会員。 安永道広、葛西順吾、張従、アレクサンドル・ル・ファブリ、リー・アイリーン、ダン・フリードマン、ドラゴミール・r・ラデヴ。
訳抜け防止モード: 計算言語学会会員。 道弘安永、順護香西、類張、アレクサンドル・ラファブリ Irene Li、Dan Friedman、Dragomir R Radev。
0.57
2019. Scisummnet: A large annotated corpus and content-impact models for scientific paper summarization with citation networks. 2019. Scisummnet: 科学論文要約のための大規模な注釈付きコーパスとコンテンツインパクトモデル。 0.59
In Proceedings of the AAAI Conference on Artificial Intelligence, volume 33, pages 7386–7393. The Proceedings of the AAAI Conference on Artificial Intelligence, Volume 33, page 7386–7393。 0.43
英語(論文から抽出)日本語訳スコア
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Jingqing Zhang、Yao Zhao、Mohammad Saleh、Peter Liu。 0.34
2020. Pegasus: Pre-training with extracted gap-sentences for abstractive summarization. 2020. Pegasus: 抽象的な要約のための抽出されたギャップ文による事前学習。 0.45
In International Conference on Machine Learning, pages 11328–11339. 機械学習に関する国際会議、11328-11339頁。 0.80
PMLR. Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q Weinberger, and Yoav Artzi. PMLR。 tianyi zhang氏、varsha kishore氏、felix wu氏、kilian q weinberger氏、yoav artzi氏。 0.46
2019. Bertscore: EvalIn International uating text generation with bert. 2019. Bertscore: EvalIn バートとのテキスト生成を国際的に使用。 0.57
Conference on Learning Representations. 学習表現に関する会議。 0.81
Hao Zheng and Mirella Lapata. ハオ・チェンとミレラ・ラパタ。 0.39
2019. Sentence centrality revisited for unsupervised summarization. 2019. 文中心性は教師なし要約のために再考された。 0.36
In Proceedings of the Association for Computational Linguistics, pages 6236–6247, Florence, Italy. 計算言語学協会の議事録』6236-6247頁、イタリアのフィレンツェ。 0.65
Association for Computational Linguistics. the 57th Annual Meeting of 計算言語学会会員。 第57回年次大会報告 0.61
Ming Zhong, Pengfei Liu, Yiran Chen, Danqing Wang, Xipeng Qiu, and Xuanjing Huang. Ming Zhong、Pengfei Liu、Yiran Chen、Danqing Wang、Xipeng Qiu、Xuanjing Huang。 0.35
2020. Extractive summarization as text matching. 2020. テキストマッチングとしての抽出要約。 0.52
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 6197–6208, Online. 第58回計算言語学会年次総会の議事録では、 6197-6208 ページがオンラインで公開されている。 0.51
Association for Computational Linguistics. Chenguang Zhu, Ziyi Yang, Robert Gmyr, Michael Zeng, and Xuedong Huang. 計算言語学会会員。 チョング・ジュ、ジイ・ヤン、ロバート・グミル、マイケル・ゼン、ジュドン・フン。 0.50
2021. Leveraging lead bias for zero-shot abstractive news summarization. 2021. ゼロショット抽象ニュース要約におけるリードバイアスの活用 0.56
In Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval, pages 1462–1471. 44th international acm sigir conference on research and development in information retrieval, pp. 1462–1471。
訳抜け防止モード: 第44回国際情報検索研究会議(ACM SIGIR)に参加して 1462-1471頁。
0.64
英語(論文から抽出)日本語訳スコア
A Data Examples in CiteSum In Tables 10 and 11, we show four data examples in CiteSum corresponding to different ratings in the human evaluation. 表10,表11のcitesumにおけるデータ例では,人間評価における異なる格付けに対応するcitesumの4つのデータ例を示す。 0.69
While some of the examples are still of low quality after quality control, most of the filtered citation texts can serve as high-quality summaries. 例のいくつかは品質管理後にまだ品質が低いが、ほとんどのフィルター付き引用テキストは高品質の要約として機能する。 0.72
B Implementation Details Official results of the baselines are taken from prior studies when possible. B 実装の詳細 可能な限り以前の研究からベースラインの公式な結果を取り出す。 0.70
Model checkpoint selection is done on the validation set for every task. モデルチェックポイントの選択は、各タスクの検証セットで行われます。 0.80
The special token “REF” (used to indicate citation span) is removed from model output for all transfer experiments. 特別なトークン "REF" (引用スパンを示すために使用される) は、すべての転送実験のモデル出力から削除される。 0.74
Paper abstract is used as input for all compared methods on SciTLDR. 論文要約はSciTLDRのすべての比較手法の入力として使用される。 0.64
We experimented with other prompts such as “We” and “In REF” but found “This paper” works the best. we” や “in ref” といった他のプロンプトも実験しましたが,“このペーパー” が最善であることが分かりました。 0.64
FP16 is used in most experiments for training efficiency except for pre-training PEGASUS on CiteSum, with which it failed to learn. FP16は、CiteSumでPEGASUSを事前訓練する以外、ほとんどの実験で訓練に使われており、学習に失敗した。 0.72
We use a batch size of 8. バッチサイズは8です。 0.38
Hyperparameters like min/max generation length are generally set following prior work (Zhang et al , 2020). min/max生成長のようなハイパーパラメータは通常、以前の作業(Zhang et al , 2020)に従って設定される。 0.61
All the experiments are conducted with 1 Nvidia RTX A6000 GPU. すべての実験はNvidia RTX A6000 GPUで行われている。 0.87
Pre-training on CiteSum only takes about 6.5h for BART and 10h for PEGASUS. CiteSumでの事前トレーニングはBARTで6.5時間、PEGASUSで10時間である。 0.69
The transfer experiments typically take less than 1h (time mostly spent on evaluation) as we use very few labeled data for training. 転送実験は通常、1時間未満(主に評価に費やす時間)で、トレーニングにラベル付きデータを使用するのはごくわずかです。 0.74
The codebase is based on Huggingface transformers (Wolf et al , 2020). コードベースはHugingface Transformer(Wolf et al , 2020)に基づいている。 0.80
We will release our code for reproducibility. 再現性のためにコードをリリースします。 0.57
英語(論文から抽出)日本語訳スコア
<Rating 1> Paper Title: Congested traffic states in empirical observations and microscopic simulations Paper Abstract: We present data from several German freeways showing different kinds of congested traffic forming near road inhomogeneities, specifically lane closings, intersections, or uphill gradients. 論文1>論文題目:渋滞交通状態 実験的観測と微視的シミュレーション 論文要約:我々は、道路の非均一性、特に車線閉鎖、交差点、上り坂勾配など、様々な種類の渋滞交通を示すいくつかのドイツの高速道路からのデータを提示する。 0.72
The states are localized or extended, homogeneous or oscillating. 状態は局所化または拡張され、均質または振動する。 0.65
Combined states are observed as well, like the coexistence of moving localized clusters and clusters pinned at road inhomogeneities, or regions of oscillating congested traffic upstream of nearly homogeneous congested traffic. 移動した局所クラスタと道路の不均一性に固定されたクラスタの共存、あるいはほぼ均一な渋滞の上流で混雑トラフィックを振動させる領域など、組み合わせた状態も観察される。 0.75
The experimental findings are consistent with a recently proposed theoretical phase diagram for traffic near on-ramps [D. Helbing, A. Hennecke, and M. Treiber, Phys. Rev. Lett. 82, 4360 (1999)]. 実験結果は、最近提案されたオンランプ付近の交通の位相図(D. Helbing, A. Hennecke, M. Treiber, Phys. Rev. 82, 4360 (1999)]と一致している。 0.71
We simulate these situations with a novel continuous microscopic single-lane model, the "intelligent driver model" (IDM), using the empirical boundary conditions. 経験的境界条件を用いた新しい連続顕微鏡単車線モデル "インテリジェントドライバモデル" (IDM) でこれらの状況をシミュレートする。 0.79
All observations, including the coexistence of states, are qualitatively reproduced by describing inhomogeneities with local variations of one model parameter. 状態の共存を含む全ての観測は、1つのモデルパラメータの局所的な変動と不均一性を記述することによって質的に再現される。
訳抜け防止モード: 状態の共存を含む全ての観測は定性的に再現される 1つのモデルパラメータの局所的な変動を伴う不均一性を記述する。
0.68
We show that the results of the microscopic model can be understood by formulating the theoretical phase diagram for bottlenecks in a more general way. より一般的な方法でボトルネックに対する理論的位相図を定式化することにより、顕微鏡モデルの結果が理解できることを示す。 0.71
In particular, a local drop of the road capacity induced by parameter variations has practically the same effect as an on-ramp. 特に,パラメータ変動によって引き起こされる道路容量の局所的な低下は,オンランプと同じ効果を持つ。 0.76
Citation Text: In a first approach, we use the well-known "intelligent driver model" (IDM) REF to show that the method works. Citation Text: 最初のアプローチでは、よく知られた"インテリジェントドライバモデル"(IDM)REFを使って、メソッドが機能することを示す。 0.85
<Rating 2> Paper Title: Probabilistic Model-Agnostic Meta-Learning Paper Abstract: Meta-learning for few-shot learning entails acquiring a prior over previous tasks and experiences, such that new tasks be learned from small amounts of data. 評価2>論文タイトル:確率的モデル非依存型メタラーニング論文要約: 少数ショット学習のためのメタラーニングは、新しいタスクが少量のデータから学習されるように、以前のタスクや経験よりも前のものを取得することを伴う。 0.64
However, a critical challenge in few-shot learning is task ambiguity: even when a powerful prior can be meta-learned from a large number of prior tasks, a small dataset for a new task can simply be too ambiguous to acquire a single model (e g , a classifier) for that task that is accurate. しかし、少数ショット学習における重要な課題はタスクのあいまいさである: たとえ強力な先行タスクが多くの先行タスクからメタ学習可能であったとしても、新しいタスクのための小さなデータセットは、そのタスクの1つのモデル(例えば、分類器)を正確に取得するには曖昧すぎる。 0.80
In this paper, we propose a probabilistic meta-learning algorithm that can sample models for a new task from a model distribution. 本稿では,モデル分布から新しいタスクのためのモデルをサンプリングできる確率的メタラーニングアルゴリズムを提案する。 0.83
Our approach extends model-agnostic meta-learning, which adapts to new tasks via gradient descent, to incorporate a parameter distribution that is trained via a variational lower bound. 提案手法は, モデルに依存しないメタラーニングを拡張し, 勾配降下による新しいタスクに適応し, 変分下界によるパラメータ分布を学習する。 0.79
At meta-test time, our algorithm adapts via a simple procedure that injects noise into gradient descent, and at meta-training time, the model is trained such that this stochastic adaptation procedure produces samples from the approximate model posterior. メタテスト時,本アルゴリズムは勾配降下にノイズを注入する簡単な手順で適応し,メタトレーニング時に,この確率適応法が近似モデル後部からサンプルを生成するようにモデルを訓練する。 0.83
Our experimental results show that our method can sample plausible classifiers and regressors in ambiguous few-shot learning problems. 提案手法は,曖昧な数発学習問題において,妥当な分類器とレグレッシャをサンプリングできることを示す。 0.53
Citation Text: They extended their approach by incorporating a probabilistic component such that for a new task, the model is sampled from a distribution of models to guarantee a higher model diversification for ambiguous tasks REF. Citation Text: 彼らは、新しいタスクのためにモデルは、曖昧なタスクREFのより高いモデルの多様化を保証するためにモデルの分布からサンプリングされる確率的コンポーネントを組み込むことで、アプローチを拡張しました。 0.76
Table 10: Examples in CiteSum with different quality ratings. 表10: 品質評価の異なるCiteSumの例。 0.75
英語(論文から抽出)日本語訳スコア
<Rating 3> Paper Title: A Generic Multi-Projection-Cen ter Model and Calibration Method for Light Field Cameras Paper Abstract: Light field cameras can capture both spatial and angular information of light rays, enabling 3D reconstruction by a single exposure. 論文>光フィールドカメラの汎用マルチプロジェクション・センターモデルとキャリブレーション手法 論文要約:光フィールドカメラは光線の空間的・角的情報の両方を捉えることができ、単一の露光で3次元再構成が可能である。 0.81
The geometry of 3D reconstruction is affected by intrinsic parameters of a light field camera significantly. 3次元再構成の幾何学は、光界カメラの内在パラメータに大きく影響される。 0.75
In the paper, we propose a multiprojection-cent er (MPC) model with 6 intrinsic parameters to characterize light field cameras based on traditional twoparallel-plane (TPP) representation. 本稿では,従来の2パラレル平面(TPP)表現に基づく光界カメラを特徴付けるために,6つの固有パラメータを持つ多射影中心(MPC)モデルを提案する。
訳抜け防止モード: 本稿では,6つの固有パラメータを持つマルチプロジェクション中心モデルを提案する。 to characterize light field camera based on traditional twoparallel- plane (TPP ) representation。
0.90
The MPC model can generally parameterize light field in different imaging formations, including conventional and focused light field cameras. mpcモデルは、通常および焦点を絞ったライトフィールドカメラを含む、様々なイメージングフォーメーションで光場をパラメータ化することができる。 0.68
By the constraints of 4D ray and 3D geometry, a 3D projective transformation is deduced to describe the relationship between geometric structure and the MPC coordinates. 4次元線と3次元幾何学の制約により、3次元射影変換は幾何学構造とmpc座標の関係を記述するために導かれる。 0.81
Based on the MPC model and projective transformation, we propose a calibration algorithm to verify our light field camera model. mpcモデルと射影変換に基づいて,光フィールドカメラモデルを検証するためのキャリブレーションアルゴリズムを提案する。 0.74
Our calibration method includes a close-form solution and a non-linear optimization by minimizing re-projection errors. 本手法は,再射影誤差を最小化し,近接型解と非線形最適化を含む。 0.62
Experimental results on both simulated and real scene data have verified the performance of our algorithm. シミュレーションおよび実シーンデータによる実験結果により,本アルゴリズムの性能が検証された。 0.80
Citation Text: Zhang et al REF proposed a multi-projection-cen ter (MPC) model with six intrinsic parameters to characterize both conventional and focused LF cameras. Citation Text: Zhang et al REFは、従来のLFカメラと焦点を絞ったカメラの両方を特徴付ける6つの固有のパラメータを持つマルチ投影中心(MPC)モデルを提案した。 0.60
<Rating 4> Paper Title: Advancing Research Infrastructure Using OpenStack Paper Abstract: Abstract-Cloud computing, which evolved from grid computing, virtualisation and automation, has a potential to deliver a variety of services to the end user via the Internet. <Rating 4> Paper Title: Advancing Research Infrastructure using OpenStack Paper Abstract: Abstract-Cloud Computingはグリッドコンピューティング、仮想化、自動化から進化し、インターネット経由でエンドユーザにさまざまなサービスを提供する可能性がある。 0.83
Using the Web to deliver Infrastructure, Software and Platform as a Service (SaaS/PaaS) has benefits of reducing the cost of investment in internal resources of an organisation. Webを使って、SaaS/PaaS(Infrastruc ture, Software and Platform as a Service)を提供すると、組織の内部リソースへの投資コストを削減できる。 0.78
It also provides greater flexibility and scalability in the utilisation of the resources. また、リソースの利用における柔軟性とスケーラビリティも向上します。 0.72
There are different cloud deployment models -public, private, community and hybrid clouds. パブリック、プライベート、コミュニティ、ハイブリッドクラウドなど、さまざまなクラウドデプロイメントモデルがあります。 0.71
This paper presents the results of research and development work in deploying a private cloud using OpenStack at the University of Huddersfield, UK, integrated into the University campus Grid QGG. 本稿では,イギリスのハダースフィールド大学において,大学構内グリッドqggに統合されたopenstackを利用したプライベートクラウドの展開に関する研究開発成果について述べる。 0.82
The aim of our research is to use a private cloud to improve the High Performance Computing (HPC) research infrastructure. 我々の研究の目的は、プライベートクラウドを使用してハイパフォーマンスコンピューティング(HPC)研究インフラを改善することである。 0.79
This will lead to a flexible and scalable resource for research, teaching and assessment. これは、研究、教育、評価のための柔軟でスケーラブルなリソースにつながります。 0.62
As a result of our work we have deployed private QGG-cloud and devised a decision matrix and mechanisms required to expand HPC clusters into the cloud maximising the resource utilisation efficiency of the cloud. 作業の結果、プライベートなQGG-クラウドをデプロイし、HPCクラスタをクラウドに拡張するために必要な決定マトリックスとメカニズムを考案し、クラウドのリソース利用効率を最大化しました。 0.71
As part of teaching and assessment of computing courses an Automated Formative Assessment (AFA) system was implemented in the QGG-Cloud. コンピュータコースの教育と評価の一環として,QGG-Cloudに自動定式評価システム(AFA)が導入された。 0.71
The system utilises the cloud’s flexibility and scalability to assign and reconfigure required resources for different tasks in the AFA. このシステムはクラウドの柔軟性とスケーラビリティを利用して、AFAのさまざまなタスクに必要なリソースを割り当て、再構成する。 0.76
Furthermore, the throughput characteristics of assessment workflows were investigated and analysed so that the requirements for cloud-based provisioning can be adequately made. さらに,評価ワークフローのスループット特性を調査し,クラウドベースのプロビジョニング要件を適切に実現できるように分析した。 0.84
Citation Text: In REF , the authors focus on the use of a private cloud environment in order to improve the High Performance Computing (HPC) research infrastructure. Citation Text: REFでは、ハイパフォーマンスコンピューティング(HPC)研究インフラを改善するために、プライベートクラウド環境の使用に焦点を当てています。
訳抜け防止モード: 引用文 : 著者らはREFにおいて,プライベートクラウド環境の利用を順に重視している ハイパフォーマンスコンピューティング(HPC)の研究インフラを改善する。
0.84
Table 11: Examples in CiteSum with different quality ratings. 表11: 品質評価の異なるCiteSumの例。 0.75
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。