論文の概要: A Survey in Adversarial Defences and Robustness in NLP
- arxiv url: http://arxiv.org/abs/2203.06414v1
- Date: Sat, 12 Mar 2022 11:37:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:51:14.302341
- Title: A Survey in Adversarial Defences and Robustness in NLP
- Title(参考訳): NLPにおける対人防御とロバスト性に関する調査
- Authors: Shreya Goyal, Sumanth Doddapaneni, Mitesh M.Khapra, Balaraman
Ravindran
- Abstract要約: ディープニューラルネットワークは堅牢性に欠けており、入力データに逆らう摂動の場合、破壊される可能性が高い。
これらのネットワークの障害を防ぐために、いくつかの防御機構も提案されている。
この調査は、NLPにおける高度なディープニューラルネットワークの脆弱性と、それらを保護する上での課題を強調している。
- 参考スコア(独自算出の注目度): 26.299507152320494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, it has been seen that deep neural networks are lacking
robustness and are likely to break in case of adversarial perturbations in
input data. Strong adversarial attacks are proposed by various authors for
computer vision and Natural Language Processing (NLP). As a counter-effort,
several defense mechanisms are also proposed to save these networks from
failing. In contrast with image data, generating adversarial attacks and
defending these models is not easy in NLP because of the discrete nature of the
text data. However, numerous methods for adversarial defense are proposed of
late, for different NLP tasks such as text classification, named entity
recognition, natural language inferencing, etc. These methods are not just used
for defending neural networks from adversarial attacks, but also used as a
regularization mechanism during training, saving the model from overfitting.
The proposed survey is an attempt to review different methods proposed for
adversarial defenses in NLP in the recent past by proposing a novel taxonomy.
This survey also highlights the fragility of the advanced deep neural networks
in NLP and the challenges in defending them.
- Abstract(参考訳): 近年、深層ニューラルネットワークは頑健性が欠如しており、入力データに逆らって摂動した場合に故障する可能性が指摘されている。
強敵攻撃はコンピュータビジョンと自然言語処理(NLP)のために様々な著者によって提案されている。
対策として、これらのネットワークの障害を防ぐためにいくつかの防御機構も提案されている。
画像データとは対照的に、テキストデータの離散的な性質のため、NLPでは敵攻撃を発生させ、これらのモデルを守ることは容易ではない。
しかし, テキスト分類, 名前付きエンティティ認識, 自然言語推論などの異なるNLPタスクに対して, 敵防衛のための多くの手法が提案されている。
これらの方法は、敵の攻撃からニューラルネットワークを守るためにだけでなく、トレーニング中の正規化メカニズムとしても使われ、モデルの過度な適合を防ぐ。
提案した調査は,近年のNLPにおける敵防衛のための異なる手法を,新しい分類法を提案して検討する試みである。
この調査はまた、NLPにおける高度なディープニューラルネットワークの脆弱性と、それらを保護する上での課題を強調している。
関連論文リスト
- Late Breaking Results: Fortifying Neural Networks: Safeguarding Against Adversarial Attacks with Stochastic Computing [1.523100574874007]
ニューラルネットワーク(NN)セキュリティでは、モデル整合性と敵攻撃に対するレジリエンスの保護が最重要になっている。
本研究では,NNモデルを構築するための新しいメカニズムとして,コンピューティング(SC)の適用について検討する。
論文 参考訳(メタデータ) (2024-07-05T20:49:32Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z) - Optimizing Information Loss Towards Robust Neural Networks [0.0]
ニューラルネットワーク(NN)は、敵の例に対して脆弱である。
テクステントロピックリトレーニングと呼ばれる新しいトレーニング手法を提案する。
情報理論にインスパイアされた分析に基づいて、エントロピー的リトレーニングは敵の訓練の効果を模倣する。
論文 参考訳(メタデータ) (2020-08-07T10:12:31Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z) - Defense of Word-level Adversarial Attacks via Random Substitution
Encoding [0.5964792400314836]
コンピュータビジョンタスクにおけるディープニューラルネットワークに対する敵対的な攻撃は、モデルを保護するための多くの新しい技術を生み出しました。
近年、自然言語処理(NLP)タスクの深層モデルに対する単語レベルの敵対攻撃は、例えば、感情分類ニューラルネットワークを騙して誤った判断を下すなど、強力な力を示している。
本稿ではランダム置換(Random Substitution RSE)という,ニューラルネットワークのトレーニングプロセスにランダム置換を導入する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-01T15:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。