論文の概要: CDEvalSumm: An Empirical Study of Cross-Dataset Evaluation for Neural
Summarization Systems
- arxiv url: http://arxiv.org/abs/2010.05139v2
- Date: Thu, 22 Oct 2020 12:11:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:25:37.619937
- Title: CDEvalSumm: An Empirical Study of Cross-Dataset Evaluation for Neural
Summarization Systems
- Title(参考訳): CDEvalSumm:ニューラルネットワークのクロスデータセット評価に関する実証的研究
- Authors: Yiran Chen, Pengfei Liu, Ming Zhong, Zi-Yi Dou, Danqing Wang, Xipeng
Qiu and Xuanjing Huang
- Abstract要約: データセット間設定下での様々な要約モデルの性能について検討する。
異なるドメインの5つのデータセットに対する11の代表的な要約システムに関する包括的な研究は、モデルアーキテクチャと生成方法の影響を明らかにしている。
- 参考スコア(独自算出の注目度): 121.78477833009671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network-based models augmented with unsupervised pre-trained knowledge
have achieved impressive performance on text summarization. However, most
existing evaluation methods are limited to an in-domain setting, where
summarizers are trained and evaluated on the same dataset. We argue that this
approach can narrow our understanding of the generalization ability for
different summarization systems. In this paper, we perform an in-depth analysis
of characteristics of different datasets and investigate the performance of
different summarization models under a cross-dataset setting, in which a
summarizer trained on one corpus will be evaluated on a range of out-of-domain
corpora. A comprehensive study of 11 representative summarization systems on 5
datasets from different domains reveals the effect of model architectures and
generation ways (i.e. abstractive and extractive) on model generalization
ability. Further, experimental results shed light on the limitations of
existing summarizers. Brief introduction and supplementary code can be found in
https://github.com/zide05/CDEvalSumm.
- Abstract(参考訳): 教師なし事前学習知識で強化されたニューラルネットワークベースのモデルは、テキスト要約において印象的なパフォーマンスを達成した。
しかし、既存の評価方法はドメイン内設定に限定されており、要約者は同じデータセットで訓練され、評価される。
このアプローチは、異なる要約システムに対する一般化能力の理解を狭めることができると論じる。
本稿では,異なるデータセットの特性の詳細な分析を行い,各コーパスで訓練された要約器を領域外コーパスで評価するクロスデータセット設定における異なる要約モデルの性能について検討する。
異なる領域の5つのデータセットに対する11の代表的な要約システムの包括的研究により、モデルアーキテクチャと生成方法(抽象的および抽出的)がモデルの一般化能力に与える影響が明らかになった。
さらに,実験結果は既存の要約器の限界に光を当てた。
簡単な紹介と追加コードはhttps://github.com/zide05/cdevalsummにある。
関連論文リスト
- Distilled Datamodel with Reverse Gradient Matching [74.75248610868685]
オフライントレーニングとオンライン評価段階を含む,データ影響評価のための効率的なフレームワークを提案する。
提案手法は, 直接再学習法と比較して, プロセスの大幅な高速化を図りながら, 同等のモデル行動評価を実現する。
論文 参考訳(メタデータ) (2024-04-22T09:16:14Z) - ACLSum: A New Dataset for Aspect-based Summarization of Scientific
Publications [10.529898520273063]
ACLSumは、ドメインの専門家によって慎重に作成され、評価される新しい要約データセットである。
以前のデータセットとは対照的に、ACLSumは科学論文のマルチアスペクト要約を容易にする。
論文 参考訳(メタデータ) (2024-03-08T13:32:01Z) - Dataset Complexity Assessment Based on Cumulative Maximum Scaled Area
Under Laplacian Spectrum [38.65823547986758]
DCNNモデルをトレーニングする前にデータセットの複雑さを効果的に評価することで分類性能を予測することが重要である。
本稿では,ラプラシアンスペクトル(cmsAULS)の下での累積最大スケール領域という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-29T13:02:04Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Multimodal Clustering Networks for Self-supervised Learning from
Unlabeled Videos [69.61522804742427]
本稿では,共通のマルチモーダル埋め込み空間を学習する自己監督型トレーニングフレームワークを提案する。
インスタンスレベルのコントラスト学習の概念をマルチモーダルクラスタリングステップで拡張し,モダリティ間の意味的類似性を捉える。
結果として得られる埋め込みスペースは、見えないデータセットや異なるドメインからでも、すべてのモダリティにわたるサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2021-04-26T15:55:01Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Learning from Incomplete Features by Simultaneous Training of Neural
Networks and Sparse Coding [24.3769047873156]
本稿では,不完全な特徴を持つデータセット上で分類器を訓練する問題に対処する。
私たちは、各データインスタンスで異なる機能のサブセット(ランダムまたは構造化)が利用できると仮定します。
新しい教師付き学習法が開発され、サンプルあたりの機能のサブセットのみを使用して、一般的な分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-28T02:20:39Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。