論文の概要: MultiGuard: Provably Robust Multi-label Classification against
Adversarial Examples
- arxiv url: http://arxiv.org/abs/2210.01111v1
- Date: Mon, 3 Oct 2022 17:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:46:55.234323
- Title: MultiGuard: Provably Robust Multi-label Classification against
Adversarial Examples
- Title(参考訳): MultiGuard: 反対例に対するロバストなマルチラベル分類
- Authors: Jinyuan Jia and Wenjie Qu and Neil Zhenqiang Gong
- Abstract要約: MultiGuardは、マルチラベル分類に対する敵の例に対する証明可能な堅牢な防御である。
我々の主要な理論的貢献は、入力の基底真理ラベルの数が、MultiGuardによって予測されるラベルのセットで証明可能であることを示すことである。
- 参考スコア(独自算出の注目度): 67.0982378001551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-label classification, which predicts a set of labels for an input, has
many applications. However, multiple recent studies showed that multi-label
classification is vulnerable to adversarial examples. In particular, an
attacker can manipulate the labels predicted by a multi-label classifier for an
input via adding carefully crafted, human-imperceptible perturbation to it.
Existing provable defenses for multi-class classification achieve sub-optimal
provable robustness guarantees when generalized to multi-label classification.
In this work, we propose MultiGuard, the first provably robust defense against
adversarial examples to multi-label classification. Our MultiGuard leverages
randomized smoothing, which is the state-of-the-art technique to build provably
robust classifiers. Specifically, given an arbitrary multi-label classifier,
our MultiGuard builds a smoothed multi-label classifier via adding random noise
to the input. We consider isotropic Gaussian noise in this work. Our major
theoretical contribution is that we show a certain number of ground truth
labels of an input are provably in the set of labels predicted by our
MultiGuard when the $\ell_2$-norm of the adversarial perturbation added to the
input is bounded. Moreover, we design an algorithm to compute our provable
robustness guarantees. Empirically, we evaluate our MultiGuard on VOC 2007,
MS-COCO, and NUS-WIDE benchmark datasets. Our code is available at:
\url{https://github.com/quwenjie/MultiGuard}
- Abstract(参考訳): 入力のラベルの集合を予測するマルチラベル分類には、多くの応用がある。
しかし、近年の研究では、複数ラベルの分類は敵の例に弱いことが示されている。
特に、アタッカーは、多段分類器が入力に対して予測したラベルを、注意深い手作りで人間に受け入れられる摂動を加えることで操作することができる。
多種分類の既存の証明可能な防御は、多層分類に一般化された場合の最適証明可能なロバスト性を保証する。
本研究は,マルチラベル分類における対戦相手に対する最初の堅牢な防御であるMultiGuardを提案する。
当社のマルチガードはランダム化平滑化(randomized smoothing)を活用しています。
具体的には、任意のマルチラベル分類器が与えられた場合、MultiGuardは入力にランダムノイズを加えることでスムーズなマルチラベル分類器を構築する。
本研究では同相ガウス雑音について考察する。
我々の主要な理論的貢献は、入力に付加される対角摂動の$\ell_2$-normが有界であるときに、入力の基底真理ラベルが、MultiGuardによって予測されるラベルの集合に証明可能であることを示すことである。
さらに,提案可能なロバスト性保証を計算するアルゴリズムを設計した。
VOC 2007 の MultiGuard と MS-COCO と NUS-WIDE のベンチマークデータセットを実証的に評価した。
私たちのコードは、 \url{https://github.com/quwenjie/multiguard} で利用可能です。
関連論文リスト
- Showing Many Labels in Multi-label Classification Models: An Empirical Study of Adversarial Examples [1.7736843172485701]
我々は、"Showing Many Labels"と呼ばれる新しいタイプの攻撃を導入する。
Showing Many Labels" では、反復攻撃はワンステップ攻撃よりもはるかに優れている。
データセット内のすべてのラベルを表示することができる。
論文 参考訳(メタデータ) (2024-09-26T06:31:31Z) - UniDEC : Unified Dual Encoder and Classifier Training for Extreme Multi-Label Classification [42.36546066941635]
Extreme Multi-label Classification (XMC) は非常に大きなラベル空間から関連するラベルのサブセットを予測する。
この研究は、デュアルエンコーダと分類器を同時に訓練する新しいエンドツーエンドのトレーニング可能なフレームワークであるUniDECを提案する。
論文 参考訳(メタデータ) (2024-05-04T17:27:51Z) - Adopting the Multi-answer Questioning Task with an Auxiliary Metric for
Extreme Multi-label Text Classification Utilizing the Label Hierarchy [10.87653109398961]
本稿では,過度なマルチラベル分類のための複数問合せタスクを採用する。
本研究では,提案手法と評価基準を法域に適用する。
論文 参考訳(メタデータ) (2023-03-02T08:40:31Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Interaction Matching for Long-Tail Multi-Label Classification [57.262792333593644]
既存のマルチラベル分類モデルにおいて,制約に対処するためのエレガントで効果的なアプローチを提案する。
ソフトなn-gram相互作用マッチングを実行することで、ラベルと自然言語記述をマッチングする。
論文 参考訳(メタデータ) (2020-05-18T15:27:55Z) - Unsupervised Person Re-identification via Multi-label Classification [55.65870468861157]
本稿では,教師なしのReIDを多ラベル分類タスクとして定式化し,段階的に真のラベルを求める。
提案手法は,まず,各人物画像に単一クラスラベルを割り当てることから始まり,ラベル予測のために更新されたReIDモデルを活用することで,多ラベル分類へと進化する。
マルチラベル分類におけるReIDモデルのトレーニング効率を高めるために,メモリベースマルチラベル分類損失(MMCL)を提案する。
論文 参考訳(メタデータ) (2020-04-20T12:13:43Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。