論文の概要: ClueGraphSum: Let Key Clues Guide the Cross-Lingual Abstractive
Summarization
- arxiv url: http://arxiv.org/abs/2203.02797v2
- Date: Wed, 9 Mar 2022 08:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 12:21:17.865932
- Title: ClueGraphSum: Let Key Clues Guide the Cross-Lingual Abstractive
Summarization
- Title(参考訳): ClueGraphSum: Key Cluesが言語間の抽象的な要約をガイドする
- Authors: Shuyu Jiang, Dengbiao Tu, Xingshu Chen, Rui Tang, Wenxian Wang,
Haizhou Wang
- Abstract要約: 言語間の要約は、異なる言語の記事に対して1つの言語で要約を生成するタスクである。
CLSに関するこれまでの研究は主にパイプライン方式を採用し、翻訳された並列データを使ってエンドツーエンドモデルを訓練していた。
本稿では,言語間要約の品質向上を図るために,手掛かり付き言語間抽象要約手法を提案する。
- 参考スコア(独自算出の注目度): 5.873920727236548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-Lingual Summarization (CLS) is the task to generate a summary in one
language for an article in a different language. Previous studies on CLS mainly
take pipeline methods or train the end-to-end model using the translated
parallel data. However, the quality of generated cross-lingual summaries needs
more further efforts to improve, and the model performance has never been
evaluated on the hand-written CLS dataset. Therefore, we first propose a
clue-guided cross-lingual abstractive summarization method to improve the
quality of cross-lingual summaries, and then construct a novel hand-written CLS
dataset for evaluation. Specifically, we extract keywords, named entities, etc.
of the input article as key clues for summarization and then design a
clue-guided algorithm to transform an article into a graph with less noisy
sentences. One Graph encoder is built to learn sentence semantics and article
structures and one Clue encoder is built to encode and translate key clues,
ensuring the information of important parts are reserved in the generated
summary. These two encoders are connected by one decoder to directly learn
cross-lingual semantics. Experimental results show that our method has stronger
robustness for longer inputs and substantially improves the performance over
the strong baseline, achieving an improvement of 8.55 ROUGE-1
(English-to-Chinese summarization) and 2.13 MoverScore (Chinese-to-English
summarization) scores over the existing SOTA.
- Abstract(参考訳): 言語間要約(CLS)は、ある言語における記事の要約を生成するタスクである。
CLSに関するこれまでの研究は主にパイプライン方式を採用し、翻訳された並列データを使ってエンドツーエンドモデルを訓練していた。
しかし、生成した言語間要約の品質は、さらなる改善が必要であり、モデル性能は手書きのCLSデータセットで評価されることはなかった。
そこで本研究では,まず,言語間要約の質を向上させるための手掛かり付き言語間要約手法を提案し,その評価のために新しい手書きclsデータセットを構築した。
具体的には,入力記事のキーワード,名前付きエンティティ等を要約の手がかりとして抽出し,手掛かり案内アルゴリズムを設計すれば,ノイズの少ない文をグラフに変換することができる。
1つのグラフエンコーダは文の意味と記事の構造を学習するために作られ、1つの手掛かりエンコーダは鍵となる手掛かりをエンコードし翻訳し、重要な部分の情報が生成された要約に格納されるようにする。
これら2つのエンコーダは1つのデコーダで接続され、言語間セマンティクスを直接学習する。
実験の結果,提案手法はより長い入力に対して強い強靭性を有し,高いベースライン上での性能向上を実現し,既存のSOTAよりも8.55ROUGE-1と2.13MoverScoreのスコア向上を実現した。
関連論文リスト
- ConVerSum: A Contrastive Learning-based Approach for Data-Scarce Solution of Cross-Lingual Summarization Beyond Direct Equivalents [4.029675201787349]
言語間の要約は自然言語処理の洗練された分野である。
高品質なCLSデータがない場合、CLSには実現可能な解決策がない。
コントラスト学習のパワーを活かしたCLSのための新しいデータ効率のアプローチであるConVerSumを提案する。
論文 参考訳(メタデータ) (2024-08-17T19:03:53Z) - Cross-lingual Contextualized Phrase Retrieval [63.80154430930898]
そこで本研究では,言語間関係の単語検索を多義的に行うタスクの定式化を提案する。
我々は、コントラスト学習を用いて、言語間コンテクスト対応句検索(CCPR)を訓練する。
フレーズ検索タスクでは、CCPRはベースラインをかなり上回り、少なくとも13ポイント高いトップ1の精度を達成する。
論文 参考訳(メタデータ) (2024-03-25T14:46:51Z) - $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge [72.64847925450368]
言語間の要約は、異なる言語で入力文書が与えられた1つの言語で要約を生成することで構成される。
この研究は、中間計画段階を言語横断橋として利用する言語横断要約へのアプローチである$mu$PLANを提示する。
論文 参考訳(メタデータ) (2023-05-23T16:25:21Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - WikiLingua: A New Benchmark Dataset for Cross-Lingual Abstractive
Summarization [41.578594261746055]
ウィキリンガ(WikiLingua)は,言語間抽象要約システムの評価のための大規模多言語データセットである。
ウィキハウ(WikiHow)は,人文者によって書かれた多種多様なトピックに関するハウツーガイドの高品質で協調的な資料である。
我々は、各記事のハウツーステップを記述するために使用されるイメージをアライメントすることで、言語間でのゴールドスタンダードな記事要約アライメントを作成する。
論文 参考訳(メタデータ) (2020-10-07T00:28:05Z) - A Deep Reinforced Model for Zero-Shot Cross-Lingual Summarization with
Bilingual Semantic Similarity Rewards [40.17497211507507]
言語間テキスト要約は、実際は重要だが未探索の課題である。
本稿では,エンドツーエンドのテキスト要約モデルを提案する。
論文 参考訳(メタデータ) (2020-06-27T21:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。