論文の概要: Domain Knowledge Alleviates Adversarial Attacks in Multi-Label
Classifiers
- arxiv url: http://arxiv.org/abs/2006.03833v4
- Date: Wed, 29 Dec 2021 11:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:23:26.107010
- Title: Domain Knowledge Alleviates Adversarial Attacks in Multi-Label
Classifiers
- Title(参考訳): ドメイン知識がマルチラベル分類器の敵攻撃を軽減する
- Authors: Stefano Melacci, Gabriele Ciravegna, Angelo Sotgiu, Ambra Demontis,
Battista Biggio, Marco Gori, Fabio Roli
- Abstract要約: 機械学習に基づく分類器に対する敵対的攻撃は、防御機構とともに、広く研究されている。
本稿では,ドメイン知識の活用が不整合予測の自然な方法となり得るマルチラベル分類に注目を向ける。
この直感を,一階述語論理知識を制約に変換し,半教師付き学習問題に注入する枠組みで検討する。
- 参考スコア(独自算出の注目度): 34.526394646264734
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial attacks on machine learning-based classifiers, along with defense
mechanisms, have been widely studied in the context of single-label
classification problems. In this paper, we shift the attention to multi-label
classification, where the availability of domain knowledge on the relationships
among the considered classes may offer a natural way to spot incoherent
predictions, i.e., predictions associated to adversarial examples lying outside
of the training data distribution. We explore this intuition in a framework in
which first-order logic knowledge is converted into constraints and injected
into a semi-supervised learning problem. Within this setting, the constrained
classifier learns to fulfill the domain knowledge over the marginal
distribution, and can naturally reject samples with incoherent predictions.
Even though our method does not exploit any knowledge of attacks during
training, our experimental analysis surprisingly unveils that domain-knowledge
constraints can help detect adversarial examples effectively, especially if
such constraints are not known to the attacker.
- Abstract(参考訳): 機械学習に基づく分類器に対する敵対的攻撃と防御機構は、シングルラベル分類問題において広く研究されている。
本稿では,本研究で注目されているマルチラベル分類に注目を移し,検討されたクラス間の関係性に関するドメイン知識が利用可能になれば,学習データ分布の外側にある敵の例に関連する予測など,一貫性のない予測を見出す自然な方法が期待できる。
この直感を,一階述語論理知識を制約に変換し,半教師付き学習問題に注入する枠組みで検討する。
この設定では、制約付き分類器は限界分布よりもドメインの知識を満たすことを学び、非一貫性な予測で自然にサンプルを拒絶することができる。
本手法は, 訓練中に攻撃の知識を活用できないが, ドメイン知識の制約が, 特に攻撃者には知られていなくても, 敵の事例を効果的に検出する上で有効であることを示す。
関連論文リスト
- Learning Robust Classifiers with Self-Guided Spurious Correlation Mitigation [26.544938760265136]
ディープニューラル分類器は、入力のスプリアス属性とターゲットの間のスプリアス相関に頼り、予測を行う。
本稿では,自己誘導型スプリアス相関緩和フレームワークを提案する。
予測行動の違いを識別するために分類器の訓練を行うことで,事前知識を必要とせず,素因関係への依存を軽減できることを示す。
論文 参考訳(メタデータ) (2024-05-06T17:12:21Z) - Adversarial Resilience in Sequential Prediction via Abstention [46.80218090768711]
本研究では,クリーンラベルの逆数例を注入できる逆数設定における逐次予測の問題について検討する。
そこで本研究では,純粋と完全対向的な設定の間に位置する逐次予測の新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-06-22T17:44:22Z) - Robustly-reliable learners under poisoning attacks [38.55373038919402]
複数の軸にまたがる攻撃に直面して強靭性を保証する方法を示す。
我々は、敵が所定の汚職予算を超過していない限り、予測されたラベルが正しいことが保証される、信頼性の高い予測を提供する。
注目すべきは、この設定における学習可能性の完全な特徴付け、特に、認定可能な領域上の上と下の境界にほぼ整合するものである。
論文 参考訳(メタデータ) (2022-03-08T15:43:33Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Attack Transferability Characterization for Adversarially Robust
Multi-label Classification [37.00606062677375]
本研究は,マルチラベル分類器に対する非目標回避攻撃に焦点を当てた。
脅威の目標は、可能な限り多くのラベルに対して、ミス分類を引き起こすことだ。
我々は,攻撃の伝達可能性レベルが分類器の攻撃可能性を決定する方法を明らかにする。
論文 参考訳(メタデータ) (2021-06-29T12:50:20Z) - Localized Uncertainty Attacks [9.36341602283533]
深層学習モデルに対する局所的不確実性攻撃を示す。
我々は、分類器が不確実な入力の領域のみを摂動することで、逆例を作成する。
$ell_p$ ballやパーターブ入力を無差別に検出する機能攻撃とは異なり、ターゲットとする変更は認識できない。
論文 参考訳(メタデータ) (2021-06-17T03:07:22Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。