論文の概要: When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning
- arxiv url: http://arxiv.org/abs/2309.00007v2
- Date: Tue, 5 Sep 2023 14:04:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 01:55:25.691638
- Title: When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning
- Title(参考訳): 尺度が信頼できないとき--トップ$kのマルチラベル学習に対する非知覚的逆転摂動
- Authors: Yuchen Sun, Qianqian Xu, Zitai Wang, and Qingming Huang
- Abstract要約: 新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
- 参考スコア(独自算出の注目度): 83.8758881342346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the great success of deep neural networks, adversarial learning has
received widespread attention in various studies, ranging from multi-class
learning to multi-label learning. However, existing adversarial attacks toward
multi-label learning only pursue the traditional visual imperceptibility but
ignore the new perceptible problem coming from measures such as Precision@$k$
and mAP@$k$. Specifically, when a well-trained multi-label classifier performs
far below the expectation on some samples, the victim can easily realize that
this performance degeneration stems from attack, rather than the model itself.
Therefore, an ideal multi-labeling adversarial attack should manage to not only
deceive visual perception but also evade monitoring of measures. To this end,
this paper first proposes the concept of measure imperceptibility. Then, a
novel loss function is devised to generate such adversarial perturbations that
could achieve both visual and measure imperceptibility. Furthermore, an
efficient algorithm, which enjoys a convex objective, is established to
optimize this objective. Finally, extensive experiments on large-scale
benchmark datasets, such as PASCAL VOC 2012, MS COCO, and NUS WIDE, demonstrate
the superiority of our proposed method in attacking the top-$k$ multi-label
systems.
- Abstract(参考訳): ディープニューラルネットワークの成功により、マルチクラス学習からマルチラベル学習まで、さまざまな研究で敵対学習が広く注目を集めている。
しかし、既存のマルチラベル学習に対する敵対的攻撃は、従来の視覚的非受容性のみを追求するが、Precision@$k$やmAP@$k$といった尺度による新しい知覚可能な問題を無視する。
具体的には、よく訓練されたマルチラベル分類器がいくつかのサンプルの期待値よりはるかに下回る場合、被害者はモデル自体ではなく、このパフォーマンスの低下が攻撃によるものであることを容易に認識することができる。
したがって、理想的な多ラベル対人攻撃は、視覚的知覚を騙すだけでなく、測定の監視を回避できる。
そこで本研究ではまず,測定不能性の概念を提案する。
そして、視覚的および測定的不受容性を両立できるような対向的摂動を生成するために、新しい損失関数を考案した。
さらに、この目的を最適化するために、凸目標を満足する効率的なアルゴリズムを確立する。
最後に,PASCAL VOC 2012 や MS COCO, NUS WIDE などの大規模ベンチマークデータセットに対する広範な実験により,提案手法が上位$k のマルチラベルシステムを攻撃する上で優れていることを示す。
関連論文リスト
- Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - T$_k$ML-AP: Adversarial Attacks to Top-$k$ Multi-Label Learning [36.33146863659193]
我々は,複数ラベルの学習に基づく画像アノテーションシステムにおいて,トップ$kの攻撃に使用できる逆摂動を生成する手法を開発した。
本手法は,標的外攻撃と攻撃対象攻撃の両条件で,最先端のトップレベルk$マルチラベル学習手法の性能を低下させる。
論文 参考訳(メタデータ) (2021-07-31T04:38:19Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - An Effective Baseline for Robustness to Distributional Shift [5.627346969563955]
ディープラーニングシステムの安全なデプロイには,トレーニング中に見られるものと異なる入力のカテゴリに直面した場合,確実な予測を控えることが重要な要件である。
本論文では, 吸収の原理を用いた分布異常検出の簡便かつ高効率な手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:46:11Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。