論文の概要: TLDR: Extreme Summarization of Scientific Documents
- arxiv url: http://arxiv.org/abs/2004.15011v3
- Date: Thu, 8 Oct 2020 22:41:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:41:14.998124
- Title: TLDR: Extreme Summarization of Scientific Documents
- Title(参考訳): TLDR: 科学的文書の極端要約
- Authors: Isabel Cachola, Kyle Lo, Arman Cohan, Daniel S. Weld
- Abstract要約: SciTLDRは5.4K以上のTLDRのデータセットである。
本稿では,TLDRを生成するための簡易かつ効果的な学習戦略であるCATTSを提案する。
データとコードはhttps://www.allenai.com/scitldr.comで公開されている。
- 参考スコア(独自算出の注目度): 38.11051158313414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce TLDR generation, a new form of extreme summarization, for
scientific papers. TLDR generation involves high source compression and
requires expert background knowledge and understanding of complex
domain-specific language. To facilitate study on this task, we introduce
SciTLDR, a new multi-target dataset of 5.4K TLDRs over 3.2K papers. SciTLDR
contains both author-written and expert-derived TLDRs, where the latter are
collected using a novel annotation protocol that produces high-quality
summaries while minimizing annotation burden. We propose CATTS, a simple yet
effective learning strategy for generating TLDRs that exploits titles as an
auxiliary training signal. CATTS improves upon strong baselines under both
automated metrics and human evaluations. Data and code are publicly available
at https://github.com/allenai/scitldr.
- Abstract(参考訳): 我々は,科学的論文に新たな過激な要約形式TLDR生成を導入する。
TLDR生成は、高い圧縮を伴い、複雑なドメイン固有言語に関する専門知識と理解を必要とする。
本稿では,3.2K以上の論文を対象とした5.4K TLDRのマルチターゲットデータセットであるSciTLDRを紹介する。
SciTLDRには著者によるTLDRと専門家によるTLDRの両方が含まれており、後者はアノテーションの負担を最小限に抑えながら高品質な要約を生成する新しいアノテーションプロトコルを用いて収集される。
本稿では,TLDRを生成するための簡易かつ効果的な学習戦略であるCATTSを提案する。
CATTSは、自動メトリクスと人的評価の両方の下で、強力なベースラインを改善する。
データとコードはhttps://github.com/allenai/scitldrで公開されている。
関連論文リスト
- Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - TL;DR Progress: Multi-faceted Literature Exploration in Text
Summarization [37.88261925867143]
本稿では,ニューラルテキスト要約に関する文献を探索する新たなツールであるTL;DR Progressについて述べる。
テキスト要約アプローチのための包括的なアノテーションスキームに基づいて、514の論文を整理する。
論文 参考訳(メタデータ) (2024-02-10T09:16:56Z) - Fusing Multimodal Signals on Hyper-complex Space for Extreme Abstractive
Text Summarization (TL;DR) of Scientific Contents [26.32569293387399]
我々は,複数の入力モダリティを活用することで,超抽象的テキスト要約(TL;DR生成)の新たな課題に対処する。
mTLDRデータセットには、さまざまな学術会議の手続きから収集された合計4,182のインスタンスが含まれている。
本稿では, デュアルフューズハイパーコンプレックストランスを用いたエンコーダデコーダモデルであるmTLDRgenを提案する。
論文 参考訳(メタデータ) (2023-06-24T13:51:42Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - CiteSum: Citation Text-guided Scientific Extreme Summarization and
Low-resource Domain Adaptation [41.494287785760534]
我々は、人間のアノテーションを使わずに新しいベンチマークCiteSumを作成し、これは前回の人間計算データセットSciTLDRの約30倍の大きさである。
科学的極端の要約では、CITESは微調整なしでSciTLDR上で完全に制御された手法よりも優れている。
ニュースの極端な要約では、CITESはベースモデルよりもXSumに大きな利益を得ている。
論文 参考訳(メタデータ) (2022-05-12T16:44:19Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Word-level Human Interpretable Scoring Mechanism for Novel Text
Detection Using Tsetlin Machines [16.457778420360537]
新規性への貢献度に応じて個々の単語を評価するためのTsetlin マシンアーキテクチャを提案する。
本手法はtm節で捉えた言語パターンを用いて,新しい文書の記述を符号化する。
次に、この記述を採用し、単語がドキュメントの新規作成にどれだけ貢献しているかを測定します。
論文 参考訳(メタデータ) (2021-05-10T23:41:14Z) - How to Train Your Agent to Read and Write [52.24605794920856]
研究論文の読み書きは、資格のある研究者が習得すべき最も特権のある能力の1つである。
読者が論文を読み、要約できるようにインテリジェントなエージェントを訓練し、おそらく新しい論文を書くための潜在的な知識の手がかりを発見し、活用できれば、それは魅力的です。
本研究では,入力段落から知識グラフ(KG)を抽出して潜在的な知識を発見できるtextitReader,新規段落を生成するgraph-to-text TextitWriter,およびtextitから構成されるDeep ReAder-Writer(DRAW)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-01-04T12:22:04Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。