論文の概要: Intriguing Usage of Applicability Domain: Lessons from Cheminformatics
Applied to Adversarial Learning
- arxiv url: http://arxiv.org/abs/2105.00495v1
- Date: Sun, 2 May 2021 15:24:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:41:35.498528
- Title: Intriguing Usage of Applicability Domain: Lessons from Cheminformatics
Applied to Adversarial Learning
- Title(参考訳): 応用可能性領域の活用をめざして--逆境学習に応用した化学情報学からの教訓
- Authors: Luke Chang, Katharina Dost, Kaiqi Zhao, Ambra Demontis, Fabio Roli,
Gill Dobbie, J\"org Wicker
- Abstract要約: Applicability Domain(AD)と呼ばれる手法は、モデルに不適切な化合物を拒絶する。
敵対的な例は、モデルが分類することを学ばない盲点を利用する故意に作られた入力である。
我々は,適用性,信頼性,トレーニングデータから遠く離れたサンプル,決定性などのテストを行う多段階データ駆動防御を提案する。
- 参考スコア(独自算出の注目度): 9.63850317943458
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Defending machine learning models from adversarial attacks is still a
challenge: none of the robust models is utterly immune to adversarial examples
to date. Different defences have been proposed; however, most of them are
tailored to particular ML models and adversarial attacks, therefore their
effectiveness and applicability are strongly limited. A similar problem plagues
cheminformatics: Quantitative Structure-Activity Relationship (QSAR) models
struggle to predict biological activity for the entire chemical space because
they are trained on a very limited amount of compounds with known effects. This
problem is relieved with a technique called Applicability Domain (AD), which
rejects the unsuitable compounds for the model. Adversarial examples are
intentionally crafted inputs that exploit the blind spots which the model has
not learned to classify, and adversarial defences try to make the classifier
more robust by covering these blind spots. There is an apparent similarity
between AD and adversarial defences. Inspired by the concept of AD, we propose
a multi-stage data-driven defence that is testing for: Applicability: abnormal
values, namely inputs not compliant with the intended use case of the model;
Reliability: samples far from the training data; and Decidability: samples
whose predictions contradict the predictions of their neighbours.It can be
applied to any classification model and is not limited to specific types of
adversarial attacks. With an empirical analysis, this paper demonstrates how
Applicability Domain can effectively reduce the vulnerability of ML models to
adversarial examples.
- Abstract(参考訳): 機械学習モデルを敵の攻撃から守ることは依然として課題である。
異なる防御法が提案されているが、そのほとんどは特定のMLモデルや敵攻撃に適合しているため、その有効性と適用性は極めて限られている。
定量的構造-活性関係(QSAR)モデルは、既知の効果を持つ非常に限られた量の化合物で訓練されているため、化学領域全体の生物活動を予測するのに苦労する。
この問題は、モデルに不適な化合物を拒絶するApplicability Domain (AD)と呼ばれるテクニックによって緩和される。
敵の例は、モデルが分類することを学ばない盲点を利用する故意に作られた入力であり、敵の防御はこれらの盲点をカバーすることによって分類器をより堅牢にしようとする。
ADと対人防御には明らかな類似点がある。
適用可能性: 異常値、すなわち、モデルの意図されたユースケースに適合しない入力、信頼性: トレーニングデータから遠く離れたサンプル、そして決定可能性: 予測が近隣の予測と矛盾するサンプル。
本稿では、実証分析により、MLモデルの脆弱性を敵例に効果的に還元する方法を示す。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - SoK: Analyzing Adversarial Examples: A Framework to Study Adversary
Knowledge [34.39273915926214]
逆の例は、誤分類を引き起こす機械学習モデルに対する悪意のある入力である。
画像分類領域に焦点をあて、秩序理論における作業にインスパイアされた敵の知識を研究するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2024-02-22T19:44:19Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Adversarial Attacks are a Surprisingly Strong Baseline for Poisoning
Few-Shot Meta-Learners [28.468089304148453]
これにより、システムの学習アルゴリズムを騙すような、衝突する入力セットを作れます。
ホワイトボックス環境では、これらの攻撃は非常に成功しており、ターゲットモデルの予測が偶然よりも悪化する可能性があることを示す。
攻撃による「過度な対応」と、攻撃が生成されたモデルと攻撃が転送されたモデルとのミスマッチという2つの仮説を探索する。
論文 参考訳(メタデータ) (2022-11-23T14:55:44Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。