論文の概要: Summarization with Graphical Elements
- arxiv url: http://arxiv.org/abs/2204.07551v1
- Date: Fri, 15 Apr 2022 17:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 14:41:50.855728
- Title: Summarization with Graphical Elements
- Title(参考訳): グラフィカル要素による要約
- Authors: Maartje ter Hoeve, Julia Kiseleva, Maarten de Rijke
- Abstract要約: 本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
- 参考スコア(独自算出の注目度): 55.5913491389047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic text summarization has experienced substantial progress in recent
years. With this progress, the question has arisen whether the types of
summaries that are typically generated by automatic summarization models align
with users' needs. Ter Hoeve et al (2020) answer this question negatively.
Amongst others, they recommend focusing on generating summaries with more
graphical elements. This is in line with what we know from the
psycholinguistics literature about how humans process text. Motivated from
these two angles, we propose a new task: summarization with graphical elements,
and we verify that these summaries are helpful for a critical mass of people.
We collect a high quality human labeled dataset to support research into the
task. We present a number of baseline methods that show that the task is
interesting and challenging. Hence, with this work we hope to inspire a new
line of research within the automatic summarization community.
- Abstract(参考訳): 近年,テキストの自動要約が著しく進歩している。
この進歩により、一般的に自動要約モデルによって生成される要約の種類がユーザのニーズに合致するかどうかという疑問が生じた。
Ter Hoeve et al (2020) はこの質問に答える。
中でも、よりグラフィカルな要素で要約を生成することに注力することを推奨している。
これは、人間がテキストを処理する方法に関する精神言語学の文献から私たちが知っていることと一致している。
これら2つの角度から動機付け,図形要素の要約という新たな課題を提案し,これらの要約が批判的な人々にとって有効であることを検証した。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
我々は,タスクが興味深く,挑戦的であることを示すベースラインメソッドをいくつか提示する。
したがって、この研究により、自動要約コミュニティ内での新しい研究ラインを刺激したいと思っています。
関連論文リスト
- What Makes a Good Story and How Can We Measure It? A Comprehensive Survey of Story Evaluation [57.550045763103334]
ストーリーを評価することは、他の世代の評価タスクよりも難しい場合があります。
まず、テキスト・トゥ・テキスト、ビジュアル・トゥ・テキスト、テキスト・トゥ・ビジュアルといった既存のストーリーテリングタスクを要約する。
本研究では,これまで開発されてきた,あるいはストーリー評価に応用可能な評価指標を整理する分類法を提案する。
論文 参考訳(メタデータ) (2024-08-26T20:35:42Z) - Controlled Text Reduction [15.102190738450092]
textitControlled Text Reduction をスタンドアロンタスクとして形式化する。
モデルでは、対象情報すべてと対象情報のみを含む一貫性のあるテキストを生成する必要がある。
論文 参考訳(メタデータ) (2022-10-24T17:59:03Z) - Automatic Text Summarization Methods: A Comprehensive Review [1.6114012813668934]
本研究は,要約手法,使用する手法,標準データセット,評価指標,今後の研究範囲などのテキスト要約概念を詳細に分析する。
論文 参考訳(メタデータ) (2022-03-03T10:45:00Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Recursively Summarizing Books with Human Feedback [10.149048526411434]
本論では,小説全体の抽象的要約の課題について述べる。
タスクの小さな部分でトレーニングされたモデルを使用して、より広範なタスクに対するフィードバックの提供を支援します。
書籍長要約のための最近のBookSumデータセットについて,最先端の成果を得た。
論文 参考訳(メタデータ) (2021-09-22T17:34:18Z) - EmailSum: Abstractive Email Thread Summarization [105.46012304024312]
我々は,メールスレッド要約(EmailSum)データセットを抽象化的に開発する。
このデータセットには、人間による注釈付きショート(30ワード)と、2549のメールスレッドからなるロング(100ワード)のサマリーが含まれている。
本研究は,現在の抽象的要約モデルの課題を明らかにするものである。
論文 参考訳(メタデータ) (2021-07-30T15:13:14Z) - What Makes a Good Summary? Reconsidering the Focus of Automatic
Summarization [49.600619575148706]
フィールドの現在の焦点は、参加者の希望と完全に一致していないことがわかります。
以上の結果から,自動要約のより広い視点を取り入れることが重要であると論じる。
論文 参考訳(メタデータ) (2020-12-14T15:12:35Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Exploring Content Selection in Summarization of Novel Chapters [19.11830806780343]
オンライン学習ガイドから要約/チャプタペアを用いて新しい章の要約を生成する新しい要約タスクを提案する。
これはニュース要約作業よりも難しい作業であり、章の長さだけでなく、要約に見られる極端なパラフレーズや一般化も考慮されている。
我々は抽出要約に焦点をあて、抽出要約のゴールド標準セットを作成する必要がある。
論文 参考訳(メタデータ) (2020-05-04T20:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。