論文の概要: Multiclass ASMA vs Targeted PGD Attack in Image Segmentation
- arxiv url: http://arxiv.org/abs/2208.01844v1
- Date: Wed, 3 Aug 2022 05:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:42:46.067729
- Title: Multiclass ASMA vs Targeted PGD Attack in Image Segmentation
- Title(参考訳): 画像分割におけるマルチクラスASMA対PGD攻撃
- Authors: Johnson Vo (1), Jiabao Xie (1), and Sahil Patel (1) ((1) University of
Toronto)
- Abstract要約: 本稿では,イメージセグメンテーションのDeepLabV3モデルにおけるPGD攻撃と適応マスク攻撃について検討する。
しかし、このような攻撃の存在は、画像分類のディープラーニングネットワークを悪用する危険を冒している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning networks have demonstrated high performance in a large variety
of applications, such as image classification, speech recognition, and natural
language processing. However, there exists a major vulnerability exploited by
the use of adversarial attacks. An adversarial attack imputes images by
altering the input image very slightly, making it nearly undetectable to the
naked eye, but results in a very different classification by the network. This
paper explores the projected gradient descent (PGD) attack and the Adaptive
Mask Segmentation Attack (ASMA) on the image segmentation DeepLabV3 model using
two types of architectures: MobileNetV3 and ResNet50, It was found that PGD was
very consistent in changing the segmentation to be its target while the
generalization of ASMA to a multiclass target was not as effective. The
existence of such attack however puts all of image classification deep learning
networks in danger of exploitation.
- Abstract(参考訳): ディープラーニングネットワークは、画像分類、音声認識、自然言語処理など、さまざまなアプリケーションで高いパフォーマンスを示している。
しかし、敵の攻撃によって悪用される大きな脆弱性が存在する。
敵攻撃は入力画像をわずかに変化させることで画像を暗示し、肉眼ではほとんど検出できないが、ネットワークによって非常に異なる分類をもたらす。
本稿では,2種類のアーキテクチャであるmobilenetv3とresnet50を用いて,画像セグメンテーションにおける投影勾配降下(pgd)攻撃と適応マスクセグメンテーション攻撃(asma)について検討した。
しかし、このような攻撃の存在は、すべての画像分類ディープラーニングネットワークを搾取の危険にさらす。
関連論文リスト
- Unsegment Anything by Simulating Deformation [67.10966838805132]
「無声化」とは、「無声化の権利」を画像に付与する作業である。
我々は、全てのプロンプトベースセグメンテーションモデルに対して、転送可能な敵攻撃を実現することを目指している。
本手法は, 画像エンコーダの特徴を破壊し, 即時攻撃を実現することに焦点を当てる。
論文 参考訳(メタデータ) (2024-04-03T09:09:42Z) - Adversarial Attacks on Image Classification Models: Analysis and Defense [0.0]
畳み込みニューラルネットワーク(CNN)に基づく画像分類モデルに対する敵対的攻撃
高速勾配符号法 (FGSM) について検討し, 画像分類モデルの性能への影響について検討した。
FGSM攻撃に対する防御機構は、改良された防御蒸留に基づくアプローチに基づいて提案されている。
論文 参考訳(メタデータ) (2023-12-28T08:08:23Z) - Extreme Image Transformations Facilitate Robust Latent Object
Representations [1.2277343096128712]
敵攻撃は、野生の機械の物体認識能力に影響を与える可能性がある。
これらは多くの場合、入力ラベルとクラスラベルの間に急激な相関関係があり、大きなネットワークで記憶される傾向がある。
本研究は,エクストリーム・イメージ・トランスフォーメーション(EIT)を用いた既訓練オフ・ザ・シェルフネットワークの微調整によって,頑健な潜伏表現の学習を支援するだけでなく,様々な強度の共通の敵攻撃に対して,これらのネットワークの性能を向上させることを示す。
論文 参考訳(メタデータ) (2023-09-19T21:31:25Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Adversarial Attacks on Image Classification Models: FGSM and Patch
Attacks and their Impact [0.0]
本章では、畳み込みニューラルネットワーク(CNN)上に構築された画像分類モデルに対する逆攻撃の概念を紹介する。
CNNは画像分類タスクで使用される非常に人気のあるディープラーニングモデルである。
2つの非常によく知られた敵対的攻撃について論じ、画像分類器の性能への影響について分析した。
論文 参考訳(メタデータ) (2023-07-05T06:40:08Z) - Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks [48.66027897216473]
マルチオブジェクト(複数支配対象)画像を用いた対向的摂動を生成するための,より実践的な問題に取り組む。
本稿では,複数場面の特徴空間における特徴空間の局所的差を利用した新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
提案手法は, 異なるホワイトボックスとブラックボックスの設定で評価した場合, 非常に伝達性の高い摂動を伴うベースライン生成攻撃よりも優れる。
論文 参考訳(メタデータ) (2022-09-20T17:36:32Z) - GAMA: Generative Adversarial Multi-Object Scene Attacks [48.33120361498787]
本稿では,多目的シーンに対する敵攻撃に対する生成モデルを用いた最初のアプローチを提案する。
我々はこの攻撃アプローチをGAMA(Generative Adversarial Multi-Object scene Attacks)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-20T06:40:54Z) - AF$_2$: Adaptive Focus Framework for Aerial Imagery Segmentation [86.44683367028914]
航空画像のセグメンテーションにはいくつかの独特な課題があり、中でも最も重要なものは前景と背景のアンバランスにある。
本稿では,階層的なセグメンテーション手法を採用し,マルチスケール表現を適応的に活用するAdaptive Focus Framework (AF$)を提案する。
AF$は、広く使われている3つの航空ベンチマークの精度を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-18T10:14:45Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Learning One Class Representations for Face Presentation Attack
Detection using Multi-channel Convolutional Neural Networks [7.665392786787577]
プレゼンテーションアタック検出(PAD)メソッドは、目に見えないアタックを一般化するのに失敗することが多い。
マルチチャネル畳み込みニューラルネットワーク(MCCNN)で学習する一クラス分類器を用いたPADのための新しいフレームワークを提案する。
新たな損失関数が導入されたため、ネットワークは攻撃の表現から遠ざかって、ボナフィドクラスのコンパクトな埋め込みを学習せざるを得なくなった。
提案フレームワークは,ボナフィドおよび(既知の)攻撃クラスから堅牢なPADシステムを学習するための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-07-22T14:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。