論文の概要: Precisely the Point: Adversarial Augmentations for Faithful and
Informative Text Generation
- arxiv url: http://arxiv.org/abs/2210.12367v1
- Date: Sat, 22 Oct 2022 06:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:00:18.775050
- Title: Precisely the Point: Adversarial Augmentations for Faithful and
Informative Text Generation
- Title(参考訳): 正確な点: 忠実でインフォーマティブなテキスト生成のための逆拡張
- Authors: Wenhao Wu, Wei Li, Jiachen Liu, Xinyan Xiao, Sujian Li, Yajuan Lyu
- Abstract要約: 本稿では,事前学習したSeq2Seqモデルのロバスト性に関する最初の定量的解析を行う。
現状のSOTA事前学習Seq2Seqモデル(BART)でさえもまだ脆弱であり,テキスト生成タスクに対する忠実度と情報伝達性に大きな劣化をもたらすことが判明した。
本稿では,Seq2Seqモデルの忠実さと情報提供性を改善するために,AdvSeqという新たな逆拡張フレームワークを提案する。
- 参考スコア(独自算出の注目度): 45.37475848753975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Though model robustness has been extensively studied in language
understanding, the robustness of Seq2Seq generation remains understudied. In
this paper, we conduct the first quantitative analysis on the robustness of
pre-trained Seq2Seq models. We find that even current SOTA pre-trained Seq2Seq
model (BART) is still vulnerable, which leads to significant degeneration in
faithfulness and informativeness for text generation tasks. This motivated us
to further propose a novel adversarial augmentation framework, namely AdvSeq,
for generally improving faithfulness and informativeness of Seq2Seq models via
enhancing their robustness. AdvSeq automatically constructs two types of
adversarial augmentations during training, including implicit adversarial
samples by perturbing word representations and explicit adversarial samples by
word swapping, both of which effectively improve Seq2Seq robustness. Extensive
experiments on three popular text generation tasks demonstrate that AdvSeq
significantly improves both the faithfulness and informativeness of Seq2Seq
generation under both automatic and human evaluation settings.
- Abstract(参考訳): モデルロバスト性は言語理解において広く研究されているが、Seq2Seq生成のロバスト性はいまだ研究されている。
本稿では,事前学習したSeq2Seqモデルのロバスト性に関する最初の定量的解析を行う。
現状のSOTA事前学習Seq2Seqモデル(BART)でさえもまだ脆弱であり,テキスト生成タスクに対する信頼性と情報伝達性に大きな劣化をもたらす。
そこで我々は,その堅牢性の向上を通じて,Seq2Seqモデルの忠実性と情報性の向上を図るために,新たな逆拡張フレームワークであるAdvSeqを提案する。
advseqはトレーニング中に、単語表現の摂動による暗黙の敵のサンプルと、単語スワッピングによる明示的な敵のサンプルを含む2つのタイプの敵の増強を自動構築する。
3つの一般的なテキスト生成タスクに対する大規模な実験により、AdvSeqは自動および人的評価設定の両方で、Seq2Seq生成の忠実性と情報性の両方を著しく改善することが示された。
関連論文リスト
- Deceiving Question-Answering Models: A Hybrid Word-Level Adversarial Approach [11.817276791266284]
本稿では,QAモデルを騙す新しい単語レベル対逆戦略であるQA-Attackを紹介する。
我々のアテンションベースの攻撃は、特定の単語を識別・ターゲットするために、カスタマイズされたアテンション機構と削除ランキング戦略を利用する。
同義語を慎重に選択し置換し、文法的整合性を保ちながら、間違った反応を生み出すためにモデルを誤解させる。
論文 参考訳(メタデータ) (2024-11-12T23:54:58Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - The Impacts of Unanswerable Questions on the Robustness of Machine
Reading Comprehension Models [0.20646127669654826]
SQuAD 1.1 または SQuAD 2.0 の3つの最先端言語モデルを微調整し、敵攻撃下でそれらの堅牢性を評価する。
実験の結果、SQuAD 2.0で微調整された現在のモデルでは、SQuAD 1.1で微調整されたモデルほど、当初は堅牢でないことが判明した。
さらに、SQuAD 2.0で微調整されたモデルのロバスト性は、追加のドメイン外のデータセットにまで拡張されている。
論文 参考訳(メタデータ) (2023-01-31T20:51:14Z) - FRSUM: Towards Faithful Abstractive Summarization via Enhancing Factual
Robustness [56.263482420177915]
我々は,既存のシステムの忠実さを,事実的堅牢性という新たな視点から研究する。
本研究では,新たなトレーニング戦略,すなわちFRSUMを提案し,そのモデルに対して,暗黙の対角的サンプルと暗黙の対向的摂動の両方を防御するように指導する。
論文 参考訳(メタデータ) (2022-11-01T06:09:00Z) - Towards Improving Faithfulness in Abstractive Summarization [37.19777407790153]
本稿では,抽象的な要約における忠実度を改善するために,FES(Fithfulness Enhanced Summarization Model)を提案する。
我々のモデルはCNN/DMとXSumの実験において強いベースラインを上回ります。
論文 参考訳(メタデータ) (2022-10-04T19:52:09Z) - E2S2: Encoding-Enhanced Sequence-to-Sequence Pretraining for Language
Understanding and Generation [95.49128988683191]
シークエンス・ツー・シークエンス(seq2seq)学習は、大規模事前学習言語モデルにおいて一般的な方法である。
本稿では,エンコーディング強化のseq2seq事前学習戦略,すなわちE2S2を提案する。
E2S2は、より効率的な自己教師付き情報をエンコーダに統合することで、Seq2seqモデルを改善する。
論文 参考訳(メタデータ) (2022-05-30T08:25:36Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Improving Sequence-to-Sequence Pre-training via Sequence Span Rewriting [54.03356526990088]
本稿では,Sequence Span Rewriting (SSR) を自己教師付きシーケンス・ツー・シーケンス(seq2seq)事前学習目的として提案する。
SSRは、モデルに不完全なスパンを書き直すように監督することで、より細かい学習信号をテキスト表現に提供します。
各種Seq2seqタスクのT5モデルによる実験により,SSRはSeq2seq事前学習を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-01-02T10:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。