論文の概要: RefSum: Refactoring Neural Summarization
- arxiv url: http://arxiv.org/abs/2104.07210v1
- Date: Thu, 15 Apr 2021 02:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:05:04.884493
- Title: RefSum: Refactoring Neural Summarization
- Title(参考訳): RefSum: Refactoring Neural Summarization
- Authors: Yixin Liu, Zi-Yi Dou, Pengfei Liu
- Abstract要約: テキスト要約と要約の組み合わせの統一ビューを提供する新しいフレームワークRefactorを紹介します。
当社のシステムは、他の研究者が既製のツールとして直接使用して、さらなるパフォーマンス向上を達成できます。
- 参考スコア(独自算出の注目度): 16.148781118509255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although some recent works show potential complementarity among different
state-of-the-art systems, few works try to investigate this problem in text
summarization. Researchers in other areas commonly refer to the techniques of
reranking or stacking to approach this problem. In this work, we highlight
several limitations of previous methods, which motivates us to present a new
framework Refactor that provides a unified view of text summarization and
summaries combination. Experimentally, we perform a comprehensive evaluation
that involves twenty-two base systems, four datasets, and three different
application scenarios. Besides new state-of-the-art results on CNN/DailyMail
dataset (46.18 ROUGE-1), we also elaborate on how our proposed method addresses
the limitations of the traditional methods and the effectiveness of the
Refactor model sheds light on insight for performance improvement. Our system
can be directly used by other researchers as an off-the-shelf tool to achieve
further performance improvements. We open-source all the code and provide a
convenient interface to use it:
https://github.com/yixinL7/Refactoring-Summarization. We have also made the
demo of this work available at:
http://explainaboard.nlpedia.ai/leaderboard/task-summ/index.php.
- Abstract(参考訳): 最近のいくつかの作品は、異なる最先端システム間の相補性を示しているが、この問題をテキスト要約で調査しようとする作品はほとんどない。
他の分野の研究者は、この問題に対処するために再分類または積み重ねのテクニックを一般的に指している。
本稿では,テキスト要約と要約の組み合わせの統一的なビューを提供する新しいフレームワークRefactorを提案する動機となる,従来のメソッドのいくつかの制限を強調した。
実験では,2つのベースシステム,4つのデータセット,3つの異なるアプリケーションシナリオを包括的に評価する。
CNN/DailyMailデータセット(46.18 ROUGE-1)における最新の結果に加えて,提案手法が従来の手法の限界にどう対処するか,またRefactorモデルの有効性がパフォーマンス改善の洞察に光を当てている。
我々のシステムは、さらなる性能向上を実現するために、市販のツールとして、他の研究者が直接利用することができる。
すべてのコードをオープンソースにして、使用するための便利なインターフェースを提供します。
この作業のデモもhttp://explainaboard.nlpedia.ai/leaderboard/task-summ/index.phpで公開しました。
関連論文リスト
- ReFeR: Improving Evaluation and Reasoning through Hierarchy of Models [12.035509884945789]
テキストと画像の両方を含む生成出力を評価するために設計されたReFeRというチューニング不要のフレームワークを導入する。
フレームワークであるReFeRを4つの多様な評価タスクで厳格に評価します。
4つの推論タスクの実験は、フレームワークのより優れた集団推論能力を示す。
論文 参考訳(メタデータ) (2024-07-16T08:25:26Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Balancing Lexical and Semantic Quality in Abstractive Summarization [0.38073142980733]
本稿では,リランカが語彙的品質と意味的品質のバランスをとる新しいトレーニング手法を提案する。
CNN/DailyMail と XSum のデータセットを用いた実験では,語彙的側面を著しく劣化させることなく要約の意味を推定できることがわかった。
論文 参考訳(メタデータ) (2023-05-17T02:18:31Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - Neural Code Summarization: How Far Are We? [30.324396716447602]
ディープラーニング技術を利用して、与えられたコードスニペットの要約を自動的に生成する。
本稿では,5つの最先端のニューラルネットワークの要約モデルについて,系統的かつ詳細な解析を行う。
論文 参考訳(メタデータ) (2021-07-15T04:33:59Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Omniscient Video Super-Resolution [84.46939510200461]
本論文では,従来のSR出力を利用するだけでなく,現在と未来からのSR出力を活用するためのフレームワークを提案する。
本手法は客観的指標,主観的視覚効果,複雑度において最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-03-29T15:09:53Z) - Knowledge Graph Embedding with Atrous Convolution and Residual Learning [4.582412257655891]
本稿では, 単純だが効果的な畳み込みに基づく知識グラフ埋め込み法を提案する。
アトラスな畳み込みを用いることで、機能相互作用を効果的に増加させる。
元の情報が忘れられた問題と、勾配の問題が消え/露呈する問題に対処する。
論文 参考訳(メタデータ) (2020-10-23T00:57:23Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Scale-Localized Abstract Reasoning [79.00011351374869]
本稿では,インテリジェンステストとしてよく用いられる抽象的関係推論タスクについて考察する。
いくつかのパターンは空間的有理性を持っているが、他のパターンは意味論に過ぎないため、各クエリを複数の解像度で処理するマルチスケールアーキテクチャを提案する。
異なる解法によって実際に異なるルールが解かれることを示し、組み合わせたマルチスケールアプローチは、全てのベンチマークにおいて、このタスクにおける既存の技術の状態を5~54%上回っていることを示す。
論文 参考訳(メタデータ) (2020-09-20T10:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。