論文の概要: ClidSum: A Benchmark Dataset for Cross-Lingual Dialogue Summarization
- arxiv url: http://arxiv.org/abs/2202.05599v1
- Date: Fri, 11 Feb 2022 13:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 14:24:02.210870
- Title: ClidSum: A Benchmark Dataset for Cross-Lingual Dialogue Summarization
- Title(参考訳): ClidSum: 言語間対話要約のためのベンチマークデータセット
- Authors: Jiaan Wang, Fandong Meng, Ziyao Lu, Duo Zheng, Zhixu Li, Jianfeng Qu,
Jie Zhou
- Abstract要約: 本稿では,対話文書を用いた言語間要約システム構築のためのベンチマークデータセットClidSumを提案する。
それは、2つのサブセット(SAMSumとMediaSum)から67k以上の対話文書と、異なるターゲット言語における112k以上の注釈付き要約からなる。
- 参考スコア(独自算出の注目度): 41.68574396739112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ClidSum, a benchmark dataset for building cross-lingual
summarization systems on dialogue documents. It consists of 67k+ dialogue
documents from two subsets (i.e., SAMSum and MediaSum) and 112k+ annotated
summaries in different target languages. Based on the proposed ClidSum, we
introduce two benchmark settings for supervised and semi-supervised scenarios,
respectively. We then build various baseline systems in different paradigms
(pipeline and end-to-end) and conduct extensive experiments on ClidSum to
provide deeper analyses. Furthermore, we propose mDialBART which extends
mBART-50 (a multi-lingual BART) via further pre-training. The multiple
objectives used in the further pre-training stage help the pre-trained model
capture the structural characteristics as well as important content in
dialogues and the transformation from source to the target language.
Experimental results show the superiority of mDialBART, as an end-to-end model,
outperforms strong pipeline models on ClidSum. Finally, we discuss specific
challenges that current approaches faced with this task and give multiple
promising directions for future research. We have released the dataset and code
at https://github.com/krystalan/ClidSum.
- Abstract(参考訳): 本稿では,対話文書を用いた言語間要約システム構築のためのベンチマークデータセットClidSumを提案する。
2つのサブセット(samsumとmediasum)から67k以上の対話文書と、異なるターゲット言語で112k以上の注釈付き要約からなる。
提案したClidSumに基づいて,教師付きシナリオと半教師付きシナリオのベンチマーク設定をそれぞれ2つ導入する。
次に、異なるパラダイム(パイプラインとエンドツーエンド)で様々なベースラインシステムを構築し、ClidSum上で広範な実験を行い、より深く分析する。
さらに,mBART-50(多言語BART)を拡張したmDialBARTを提案する。
さらなる事前学習段階において使われる複数の目的により、事前訓練されたモデルは、対話における構造的特徴と重要な内容、およびソースからターゲット言語への変換を捉えることができる。
実験結果から,mDialBARTはエンドツーエンドモデルとして,ClidSum上での強いパイプラインモデルよりも優れていた。
最後に、本課題に直面する現在の課題について論じ、今後の研究に有望な複数の方向性を示す。
データセットとコードはhttps://github.com/krystalan/ClidSumでリリースしました。
関連論文リスト
- InstructERC: Reforming Emotion Recognition in Conversation with a
Retrieval Multi-task LLMs Framework [10.926811477543081]
本稿では,Large Language Models(LLMs)に基づく識別的枠組みから生成的枠組みへ,感情認識タスクを再構築する新しい手法を提案する。
インストラクタは3つの重要な貢献をしている。
私たちのコードとアライメントされた統合データセット(UIME)はGithubのリンクで参照できます。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - CGoDial: A Large-Scale Benchmark for Chinese Goal-oriented Dialog
Evaluation [75.60156479374416]
CGoDialは、Goal指向のダイアログ評価のための、新しい挑戦的で包括的な中国のベンチマークである。
96,763のダイアログセッションと574,949のダイアログがすべて含まれており、異なる知識ソースを持つ3つのデータセットをカバーする。
学術ベンチマークと音声対話のシナリオのギャップを埋めるために、実際の会話からデータを収集したり、クラウドソーシングを通じて既存のデータセットに音声機能を追加する。
論文 参考訳(メタデータ) (2022-11-21T16:21:41Z) - OPAL: Ontology-Aware Pretrained Language Model for End-to-End
Task-Oriented Dialogue [40.62090743056549]
本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは少なくとも2つのタスク固有モジュールを満たす:対話状態トラッカー(DST)と応答生成器(RG)。
論文 参考訳(メタデータ) (2022-09-10T04:38:27Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - CrossSum: Beyond English-Centric Cross-Lingual Summarization for 1,500+
Language Pairs [27.574815708395203]
CrossSumは1500以上の言語対の1,68万記事要約サンプルからなる大規模言語間要約データセットである。
我々は、多言語抽象要約データセットからのクロス言語検索により、異なる言語で記述された並列記事の整列により、クロスサムを作成する。
対象言語における記事の要約が可能な言語間要約モデルを効果的に学習する多段階データサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-16T11:40:36Z) - A Survey of Recent Abstract Summarization Techniques [0.0]
英語とインドネシア語のウィキペディアデータセットに対する事前学習モデルの影響について検討する。
ROUGEのパフォーマンスに影響を与える最も重要な要因は、カバレッジ、密度、圧縮です。
T5-Large、Pegasus-XSum、ProphetNet-CNNDMは最高の要約を提供する。
論文 参考訳(メタデータ) (2021-04-15T20:01:34Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。