論文の概要: Amicable Aid: Turning Adversarial Attack to Benefit Classification
- arxiv url: http://arxiv.org/abs/2112.04720v1
- Date: Thu, 9 Dec 2021 06:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 14:17:03.767771
- Title: Amicable Aid: Turning Adversarial Attack to Benefit Classification
- Title(参考訳): Amicable Aid: 敵対的攻撃をベネフィット分類に切り替える
- Authors: Juyeop Kim, Jun-Ho Choi, Soobeom Jang, Jong-Seok Lee
- Abstract要約: ディープイメージ分類モデルに対する 敵の攻撃は 深刻なセキュリティ上の懸念を引き起こす
本稿では,敵攻撃の概念が分類性能に寄与する新たなパラダイムを提案する。
摂動の逆の探索方向をとることで、画像が他の画像に変換され、高い信頼性が得られることを示す。
- 参考スコア(独自算出の注目度): 32.97371718600278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While adversarial attacks on deep image classification models pose serious
security concerns in practice, this paper suggests a novel paradigm where the
concept of adversarial attacks can benefit classification performance, which we
call amicable aid. We show that by taking the opposite search direction of
perturbation, an image can be converted to another yielding higher confidence
by the classification model and even a wrongly classified image can be made to
be correctly classified. Furthermore, with a large amount of perturbation, an
image can be made unrecognizable by human eyes, while it is correctly
recognized by the model. The mechanism of the amicable aid is explained in the
viewpoint of the underlying natural image manifold. We also consider universal
amicable perturbations, i.e., a fixed perturbation can be applied to multiple
images to improve their classification results. While it is challenging to find
such perturbations, we show that making the decision boundary as perpendicular
to the image manifold as possible via training with modified data is effective
to obtain a model for which universal amicable perturbations are more easily
found. Finally, we discuss several application scenarios where the amicable aid
can be useful, including secure image communication, privacy-preserving image
communication, and protection against adversarial attacks.
- Abstract(参考訳): 深部画像分類モデルに対する敵意攻撃は,実際には重大なセキュリティ上の懸念を生じさせるが,本論文では,敵意攻撃の概念が分類性能に寄与する新たなパラダイムを提案する。
摂動の反対探索方向を取ることにより、分類モデルにより高い信頼感を与える別の画像に変換することができ、誤った分類画像であっても正しく分類することができることを示す。
さらに、大量の摂動によって人間の目では認識できない画像を作ることができ、モデルによって正しく認識される。
友好的援助のメカニズムは、基礎となる自然画像多様体の観点から説明される。
また,固定摂動を複数の画像に適用し,その分類結果を改善するという,普遍的網羅的摂動についても検討する。
このような摂動を見いだすことは困難であるが、修正データを用いた訓練により、画像多様体に可能な限り垂直な決定境界を作ることは、普遍的な共役摂動がより容易に見つかるモデルを得るのに有効であることを示す。
最後に,安全画像通信,プライバシー保護画像通信,敵対的攻撃に対する保護など,友好的支援が有効なアプリケーションシナリオについて論じる。
関連論文リスト
- Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Exploring the Robustness of Human Parsers Towards Common Corruptions [99.89886010550836]
我々は,LIP-C,ATR-C,Pascal-Person-Part-Cという3つの汚職堅牢性ベンチマークを構築し,人間の解析モデルのリスク許容度を評価する。
データ強化戦略に触発されて、一般に破損した条件下で頑健性を高めるための新しい異種強化機構を提案する。
論文 参考訳(メタデータ) (2023-09-02T13:32:14Z) - All-in-one Multi-degradation Image Restoration Network via Hierarchical
Degradation Representation [47.00239809958627]
我々は新しいオールインワン・マルチデグレーション画像復元ネットワーク(AMIRNet)を提案する。
AMIRNetは、クラスタリングによって木構造を段階的に構築することで、未知の劣化画像の劣化表現を学習する。
この木構造表現は、様々な歪みの一貫性と不一致を明示的に反映しており、画像復元の具体的な手がかりとなっている。
論文 参考訳(メタデータ) (2023-08-06T04:51:41Z) - Exploiting Frequency Spectrum of Adversarial Images for General
Robustness [3.480626767752489]
相成分に重点を置いた逆行訓練は、クリーン、逆行、および一般的な汚職精度のモデル性能を著しく向上させる。
そこで本稿では, 周波数ベースデータ拡張手法であるAdversarial Amplitude Swapを提案し, クリーン画像と逆画像の振幅スペクトルを交換する。
これらの画像は、敵画像の代用として機能し、様々な敵訓練設定で実装することができる。
論文 参考訳(メタデータ) (2023-05-15T08:36:32Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - ExCon: Explanation-driven Supervised Contrastive Learning for Image
Classification [12.109442912963969]
本稿では,サリエンシに基づく説明手法を活用して,コンテント保存型マスク強化によるコントラスト学習を提案する。
提案手法は, 近距離画像の埋め込みに類似した内容と説明を与えるという2つの目的を, 批判的に果たすものである。
ExConは、分類、説明品質、対向ロバスト性、および分布シフトの文脈におけるモデルの確率的予測のキャリブレーションの観点から、バニラ指導によるコントラスト学習より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:15:26Z) - Contrastive Counterfactual Visual Explanations With Overdetermination [7.8752926274677435]
CLEARイメージは、満足いく説明は対照的で、事実的であり、測定可能であるべきだという見解に基づいている。
CLEAR画像は、Grad-CAMやLIMEなどの手法を平均27%向上させる医療画像ケーススタディに適用した。
論文 参考訳(メタデータ) (2021-06-28T10:24:17Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Unsupervised Deep Metric Learning with Transformed Attention Consistency
and Contrastive Clustering Loss [28.17607283348278]
教師なしのメートル法学習のための既存のアプローチは、入力画像自体の自己超越情報を探索することに焦点を当てている。
我々は、画像を分析する際、人間の目は個々の画像を調べるのではなく、互いに画像を比較することが多いことを観察した。
本研究では,画像間の自己超越情報に基づいてネットワークを学習する,教師なし深度学習のための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2020-08-10T19:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。