論文の概要: Generating Adversarial Examples in Chinese Texts Using Sentence-Pieces
- arxiv url: http://arxiv.org/abs/2012.14769v1
- Date: Tue, 29 Dec 2020 14:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:38:20.686140
- Title: Generating Adversarial Examples in Chinese Texts Using Sentence-Pieces
- Title(参考訳): 文節を用いた中国語テキストの逆例生成
- Authors: Linyang Li, Yunfan Shao, Demin Song, Xipeng Qiu, Xuanjing Huang
- Abstract要約: 文片を用いた代用ジェネレータとして,中国語の逆例を作成できる事前学習型言語モデルを提案する。
生成した敵の例の置換は文字や単語ではなく「テキスト」であり、中国の読者にとって自然である。
- 参考スコア(独自算出の注目度): 60.58900627906269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks in texts are mostly substitution-based methods that
replace words or characters in the original texts to achieve success attacks.
Recent methods use pre-trained language models as the substitutes generator.
While in Chinese, such methods are not applicable since words in Chinese
require segmentations first. In this paper, we propose a pre-train language
model as the substitutes generator using sentence-pieces to craft adversarial
examples in Chinese. The substitutions in the generated adversarial examples
are not characters or words but \textit{'pieces'}, which are more natural to
Chinese readers. Experiments results show that the generated adversarial
samples can mislead strong target models and remain fluent and semantically
preserved.
- Abstract(参考訳): テキストにおける敵対的攻撃は、多くの場合、成功した攻撃を達成するために、元のテキストにおける単語や文字を置き換える置換ベースの方法である。
最近の手法では、代用生成器として事前学習された言語モデルを使用している。
中国語ではそのような方法は適用できないが、中国語の単語はまず区切りを必要とする。
本稿では,中国語で副詞を作るために,文節を用いた代用詞生成器として事前学習言語モデルを提案する。
生成した対数例の置換は文字や単語ではなく、中国の読者にとって自然な「textit{'pieces'}」である。
実験の結果, 生成した逆行性サンプルは, 強いターゲットモデルに誤解を与え, 流動的かつ意味的に保存できることがわかった。
関連論文リスト
- Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - Lack of Fluency is Hurting Your Translation Model [18.259879373559546]
この研究は、列車の文のどの部分が不自然に見えるかを決定するために、テクティトゥフルエンシノイズを定義している。
WMT-14 DE$rightarrow$EN と RU$rightarrow$EN のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-05-24T06:44:17Z) - Example-Based Machine Translation from Text to a Hierarchical
Representation of Sign Language [1.3999481573773074]
本稿では,テキスト・トゥ・サイン翻訳の原本について述べる。
これは、AZeeにおける手話ビデオのテキストと階層的な形式記述の間のアライメントのドメイン固有の並列コーパスを使用して、データの不足を補う。
提案アルゴリズムは、ソーステキストに存在する類似性の検出に基づいて、整列セグメントのマッチングと置換を利用して、複数の候補翻訳を構築する。
結果として得られる翻訳は、アバターシステムへの入力として使用されるように設計されたAZee式(英語版)の形式である。
論文 参考訳(メタデータ) (2022-05-06T15:48:43Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Text Detoxification using Large Pre-trained Neural Models [57.72086777177844]
テキスト中の毒性を除去する2つの新しい教師なし手法を提案する。
最初の方法は、生成プロセスのガイダンスと、小さなスタイル条件言語モデルを組み合わせることである。
第2の方法は、BERTを使用して有害な単語を非攻撃的同義語に置き換える。
論文 参考訳(メタデータ) (2021-09-18T11:55:32Z) - Experiments with adversarial attacks on text genres [0.0]
BERTやXLM-RoBERTaのような事前学習されたトランスフォーマーに基づくニューラルモデルは、多くのNLPタスクにおいてSOTA結果を示す。
そこで本研究では,最も重要な単語のいくつかを類似した単語に置き換えることができる埋め込み型アルゴリズムが,モデル予測にかなりの割合で影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2021-07-05T19:37:59Z) - SHUOWEN-JIEZI: Linguistically Informed Tokenizers For Chinese Language
Model Pretraining [48.880840711568425]
事前学習された言語モデルの中国語トークン化に対する3つの要因の影響について検討する。
本稿では,発音に基づくトークン化システムであるSHUOWEN (Talk Word) と,グリフに基づくトークン化システムであるJIEZI (Solve Character) の3種類のトークン化手法を提案する。
SHUOWENとJIEZIは、一般的に従来のシングル文字トークンよりも優れた性能を持つ。
論文 参考訳(メタデータ) (2021-06-01T11:20:02Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - From Solving a Problem Boldly to Cutting the Gordian Knot: Idiomatic
Text Generation [14.360808219541752]
テキスト生成のための新しいアプリケーション、慣用文生成について研究する。
与えられたリテラル文に対して適切なイディオムを求める,このタスクに対する新しいアプローチを提案する。
得られたイディオムと残りの文を組み合わせるために,ニューラルモデルを用いて慣用文を生成する。
論文 参考訳(メタデータ) (2021-04-13T22:57:25Z) - AdvExpander: Generating Natural Language Adversarial Examples by
Expanding Text [39.09728700494304]
AdvExpanderは、テキストを拡大することで、新しい敵対例を作成する方法を紹介します。
まず、言語規則を用いて、どの構成要素を拡張すべきかを決定する。
次にCVAEに基づく生成モデルから検索した逆修飾子を挿入して各成分を拡大する。
論文 参考訳(メタデータ) (2020-12-18T13:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。