論文の概要: Quantifying and Understanding Adversarial Examples in Discrete Input
Spaces
- arxiv url: http://arxiv.org/abs/2112.06276v1
- Date: Sun, 12 Dec 2021 16:44:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-12-14 18:56:01.472074
- Title: Quantifying and Understanding Adversarial Examples in Discrete Input
Spaces
- Title(参考訳): 離散入力空間における逆例の定量化と理解
- Authors: Volodymyr Kuleshov, Evgenii Nikishin, Shantanu Thakoor, Tingfung Lau,
Stefano Ermon
- Abstract要約: 我々は、任意の離散的な設定で適用される同義的逆例の概念を定式化し、そのような例を構成するための単純なドメインに依存しないアルゴリズムを記述する。
我々の研究は、連続入力と類似した離散逆例のドメインに依存しない処理への一歩である。
- 参考スコア(独自算出の注目度): 70.18815080530801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern classification algorithms are susceptible to adversarial
examples--perturbations to inputs that cause the algorithm to produce
undesirable behavior. In this work, we seek to understand and extend
adversarial examples across domains in which inputs are discrete, particularly
across new domains, such as computational biology. As a step towards this goal,
we formalize a notion of synonymous adversarial examples that applies in any
discrete setting and describe a simple domain-agnostic algorithm to construct
such examples. We apply this algorithm across multiple domains--including
sentiment analysis and DNA sequence classification--and find that it
consistently uncovers adversarial examples. We seek to understand their
prevalence theoretically and we attribute their existence to spurious token
correlations, a statistical phenomenon that is specific to discrete spaces. Our
work is a step towards a domain-agnostic treatment of discrete adversarial
examples analogous to that of continuous inputs.
- Abstract(参考訳): 現代の分類アルゴリズムは逆の例に影響を受けやすく、アルゴリズムが望ましくない振る舞いを生み出す入力に摂動する。
本研究では,入力が離散的な領域,特に計算生物学などの新しい領域をまたいだ逆例を理解し,拡張することを目的とする。
この目標に向けてのステップとして、任意の離散的な設定に適用される同義語逆例の概念を定式化し、そのような例を構成するための単純なドメインに依存しないアルゴリズムを記述する。
このアルゴリズムは感情分析やdna配列の分類を含む複数のドメインにまたがって適用され、逆の例を一貫して発見する。
我々はそれらの有病率を理論的に理解し、それらの存在は離散空間に特有の統計的現象である突発的なトークン相関によるものとみなす。
我々の研究は、連続入力と類似した離散逆例のドメインに依存しない処理への一歩である。
関連論文リスト
- Domain-Class Correlation Decomposition for Generalizable Person
Re-Identification [34.813965300584776]
個人の再識別では、ドメインとクラスは相関する。
このドメイン・クラス間の相関関係により、ドメインの敵対的学習はクラスに関する特定の情報を失うことが示される。
我々のモデルは、大規模ドメイン一般化Re-IDベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-29T09:45:03Z) - Generating Contrastive Explanations for Inductive Logic Programming
Based on a Near Miss Approach [0.7734726150561086]
Inductive Logic Programming (textscGeNME) を用いて学習した関係概念のための説明生成アルゴリズムを提案する。
近いミスをカバーするが、元のインスタンスではない修正されたルールが説明として与えられる。
また,ルールベース,例に基づく人間の嗜好と,家族やアーチ領域におけるミスに近い説明とを比較検討した心理実験を行った。
論文 参考訳(メタデータ) (2021-06-15T11:42:05Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Adversarial Examples in Constrained Domains [29.137629314003423]
本稿では,制約領域が非制約領域よりも脆弱でないかどうかを,逆例生成アルゴリズムを用いて検討する。
我々のアプローチは、制約のない領域に匹敵する制約付き領域における誤分類率を生成する。
本研究は, 制限領域によって露出される狭い攻撃面が, 敵の例を成功させるのに十分な大きさであることを示す。
論文 参考訳(メタデータ) (2020-11-02T18:19:44Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - Representation via Representations: Domain Generalization via
Adversarially Learned Invariant Representations [14.751829773340537]
複数の「研究」(または領域)から不変表現を学習するための敵対的検閲手法について検討する。
医学的な予測のような多くの文脈において、人口の多い地域での研究からの領域の一般化は、アルゴリズム的公正性に関する以前の研究では予想されていなかった、異なる風味の公平性を提供する。
論文 参考訳(メタデータ) (2020-06-20T02:35:03Z) - Self-training Avoids Using Spurious Features Under Domain Shift [54.794607791641745]
教師なし領域適応においては、条件付きエントロピー最小化と擬似ラベル処理は、既存の理論で解析されたものよりもドメインシフトがはるかに大きい場合であっても行われる。
ドメインシフトが大きくなる可能性のある特定の設定を特定・分析するが、特定のスパイラルな特徴はソースドメインのラベルと相関するが、ターゲットの独立なラベルである。
論文 参考訳(メタデータ) (2020-06-17T17:51:42Z) - Domain Knowledge Alleviates Adversarial Attacks in Multi-Label
Classifiers [34.526394646264734]
機械学習に基づく分類器に対する敵対的攻撃は、防御機構とともに、広く研究されている。
本稿では,ドメイン知識の活用が不整合予測の自然な方法となり得るマルチラベル分類に注目を向ける。
この直感を,一階述語論理知識を制約に変換し,半教師付き学習問題に注入する枠組みで検討する。
論文 参考訳(メタデータ) (2020-06-06T10:24:54Z) - Differential Treatment for Stuff and Things: A Simple Unsupervised
Domain Adaptation Method for Semantic Segmentation [105.96860932833759]
最先端のアプローチは、セマンティックレベルのアライメントの実行がドメインシフトの問題に取り組むのに役立つことを証明している。
我々は,物事領域や物事に対する異なる戦略による意味レベルのアライメントを改善することを提案する。
提案手法に加えて,提案手法は,ソースとターゲットドメイン間の最も類似した機能やインスタンス機能を最小化することにより,この問題の緩和に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-18T04:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。