論文の概要: Dimsum @LaySumm 20: BART-based Approach for Scientific Document
Summarization
- arxiv url: http://arxiv.org/abs/2010.09252v1
- Date: Mon, 19 Oct 2020 06:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:50:35.388311
- Title: Dimsum @LaySumm 20: BART-based Approach for Scientific Document
Summarization
- Title(参考訳): Dimsum @LaySumm 20: 科学的文書要約のためのBARTベースのアプローチ
- Authors: Tiezheng Yu and Dan Su and Wenliang Dai and Pascale Fung
- Abstract要約: BARTモデルに基づくレイサマリー生成システムを構築した。
文ラベルを余分な監視信号として活用し、レイ・サマリゼーションの性能を向上させる。
- 参考スコア(独自算出の注目度): 50.939885303186195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lay summarization aims to generate lay summaries of scientific papers
automatically. It is an essential task that can increase the relevance of
science for all of society. In this paper, we build a lay summary generation
system based on the BART model. We leverage sentence labels as extra
supervision signals to improve the performance of lay summarization. In the
CL-LaySumm 2020 shared task, our model achieves 46.00\% Rouge1-F1 score.
- Abstract(参考訳): layの要約は、科学論文の素な要約を自動的に生成することを目的としている。
社会全体の科学の関連性を高めるための重要な課題である。
本稿では,BARTモデルに基づくレイサマリー生成システムを構築する。
文ラベルを余分な監督信号として活用し,文要約の性能を向上させる。
CL-LaySumm 2020共有タスクでは、我々のモデルは46.00\% Rouge1-F1スコアを達成した。
関連論文リスト
- Overview of the BioLaySumm 2023 Shared Task on Lay Summarization of
Biomedical Research Articles [47.04555835353173]
本稿では,ACL 2023のBioNLPワークショップで開催されているバイオメディカルリサーチ記事のレイ要約(BioLaySumm)における共有タスクの結果について述べる。
この共有タスクの目的は、"遅延要約"を生成することができる抽象的な要約モデルを開発することである。
総合的な結果に加えて,BioLaySumm共有タスクのセットアップと洞察についても報告した。
論文 参考訳(メタデータ) (2023-09-29T15:43:42Z) - Scientific Paper Extractive Summarization Enhanced by Citation Graphs [50.19266650000948]
我々は、引用グラフを活用して、異なる設定下での科学的論文の抽出要約を改善することに重点を置いている。
予備的な結果は、単純な教師なしフレームワークであっても、引用グラフが有用であることを示している。
そこで我々は,大規模ラベル付きデータが利用可能である場合のタスクにおいて,より正確な結果を得るために,グラフベースのスーパービジョン・サムライゼーション・モデル(GSS)を提案する。
論文 参考訳(メタデータ) (2022-12-08T11:53:12Z) - COLO: A Contrastive Learning based Re-ranking Framework for One-Stage
Summarization [84.70895015194188]
コントラスト学習に基づく一段階要約フレームワークであるCOLOを提案する。
COLOはCNN/DailyMailベンチマークの1段階システムの抽出と抽象化結果を44.58と46.33ROUGE-1スコアに引き上げた。
論文 参考訳(メタデータ) (2022-09-29T06:11:21Z) - SimCPSR: Simple Contrastive Learning for Paper Submission Recommendation
System [0.0]
本研究では,論文提出推薦システムの効率的な手法としてトランスファーラーニングを用いたトランスフォーマーモデルを提案する。
本質的な情報(タイトル、要約、キーワードのリストなど)をジャーナルの目的とスコープと組み合わせることで、このモデルは論文の受容を最大化するトップK誌を推薦することができる。
論文 参考訳(メタデータ) (2022-05-12T08:08:22Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - IITK@LCP at SemEval 2021 Task 1: Classification for Lexical Complexity
Regression Task [1.5952305322416085]
我々はELECTRAモデルを活用し、データアノテーションスキームのミラー化を試みる。
このやや反直感的なアプローチは、サブタスク1では0.0654、サブタスク2では0.0811のMAEを達成した。
論文 参考訳(メタデータ) (2021-04-02T13:40:12Z) - Bengali Abstractive News Summarization(BANS): A Neural Attention
Approach [0.8793721044482612]
本稿では,エンコーダ・デコーダに着目したSeq2seqベースのLong Short-Term Memory(LSTM)ネットワークモデルを提案する。
提案システムでは,単語の長い列を人文や人文で生成する,局所的な注意に基づくモデルを構築している。
また,Bangla.bdnews24.com1から収集した19k以上の記事とそれに対応する人文要約のデータセットも作成した。
論文 参考訳(メタデータ) (2020-12-03T08:17:31Z) - SciSummPip: An Unsupervised Scientific Paper Summarization Pipeline [39.46301416663324]
SummPipに触発されたテキスト要約システムSciSummPipについて述べる(Zhao et al., 2020)。
我々のSciSummPipには、文脈文表現のためのトランスフォーマーベースの言語モデルSciBERTが含まれている。
我々の研究は、コンテンツ選択と要約長制約が科学領域に適応するために適用されるという点において、以前の方法と異なる。
論文 参考訳(メタデータ) (2020-10-19T03:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。