論文の概要: Normal vs. Adversarial: Salience-based Analysis of Adversarial Samples
for Relation Extraction
- arxiv url: http://arxiv.org/abs/2104.00312v1
- Date: Thu, 1 Apr 2021 07:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:56:57.606598
- Title: Normal vs. Adversarial: Salience-based Analysis of Adversarial Samples
for Relation Extraction
- Title(参考訳): 正常対adversarial--関係抽出のためのadversarial sampleの解析
- Authors: Luoqiu Li, Xiang Chen, Ningyu Zhang, Shumin Deng, Xin Xie, Chuanqi
Tan, Mosha Chen, Fei Huang, Huajun Chen
- Abstract要約: 私たちは、サリエンスベースの方法で敵のサンプルを分析するための第一歩を踏み出します。
サリエンストークンは、敵対的な摂動と直接相関があることを観察する。
ある程度、私たちのアプローチは敵対的なサンプルに対するキャラクターを明らかにします。
- 参考スコア(独自算出の注目度): 25.869746965410954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent neural-based relation extraction approaches, though achieving
promising improvement on benchmark datasets, have reported their vulnerability
towards adversarial attacks. Thus far, efforts mostly focused on generating
adversarial samples or defending adversarial attacks, but little is known about
the difference between normal and adversarial samples. In this work, we take
the first step to leverage the salience-based method to analyze those
adversarial samples. We observe that salience tokens have a direct correlation
with adversarial perturbations. We further find the adversarial perturbations
are either those tokens not existing in the training set or superficial cues
associated with relation labels. To some extent, our approach unveils the
characters against adversarial samples. We release an open-source testbed,
"DiagnoseAdv".
- Abstract(参考訳): 最近のニューラルベース関係抽出アプローチは、ベンチマークデータセットで有望な改善を達成しているが、敵攻撃に対する脆弱性を報告している。
今のところ、主に敵のサンプルの生成や敵の攻撃の防御に焦点を当てているが、通常のサンプルと敵のサンプルの違いについてはほとんど分かっていない。
そこで本研究では, 塩分に基づく手法を応用し, その逆のサンプルを解析する第一歩を踏み出す。
その結果,サリエンストークンは逆方向の摂動と直接相関していることがわかった。
さらに,相手の摂動は,訓練セットに存在しないトークンか,関係ラベルに関連付けられた表面的手がかりかを見いだす。
ある程度は、我々のアプローチは、敵のサンプルに対するキャラクターを明らかにします。
オープンソースのテストベッド“DiagnoseAdv”をリリースします。
関連論文リスト
- Mitigating Spurious Negative Pairs for Robust Industrial Anomaly Detection [9.93548802132951]
敵攻撃に対する既存の検出手法の堅牢性は依然として課題であり、自律運転のような現実のアプリケーションにおいて信頼性を損なう。
本稿では,ADにおける対人訓練の理想的目的関数として,正規群から派生した擬似奇形群を提案する。
これらの結果から, 突発性負対が従来のコントラスト損失を損なうことにより, 頑健なADを達成できることが示唆された。
論文 参考訳(メタデータ) (2025-01-26T07:32:39Z) - On the Effect of Adversarial Training Against Invariance-based
Adversarial Examples [0.23624125155742057]
この研究は、畳み込みニューラルネットワーク(CNN)における不変性に基づく逆トレーニングの効果に対処する。
本研究は,非分散型および摂動型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型を適用した場合,連続的でなく連続的に実施すべきであることを示す。
論文 参考訳(メタデータ) (2023-02-16T12:35:37Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Concept-based Adversarial Attacks: Tricking Humans and Classifiers Alike [4.578929995816155]
意味論的概念をコードする上層層のアクティベーションを変更することで,敵対的なサンプルを生成する。
人間は、元のサンプルと反対のサンプルの違いに気づくかもしれない(そしておそらくは)。
我々のアプローチは、例えば、人間と機械の両方が意思決定に関与している入力の多段階処理に関係している。
論文 参考訳(メタデータ) (2022-03-18T21:30:11Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Can We Mitigate Backdoor Attack Using Adversarial Detection Methods? [26.8404758315088]
我々は,Deep Neural Networksの敵対的事例とバックドア事例の関連性について包括的に研究する。
我々の知見は, 逆行例と逆行例の両方が推論過程中に異常を有するという観察に基づいている。
バックドアの事例を検出するために,既存の4つの対角防御法を改訂した。
論文 参考訳(メタデータ) (2020-06-26T09:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。