論文の概要: LeNo: Adversarial Robust Salient Object Detection Networks with
Learnable Noise
- arxiv url: http://arxiv.org/abs/2210.15392v1
- Date: Thu, 27 Oct 2022 12:52:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:29:38.756582
- Title: LeNo: Adversarial Robust Salient Object Detection Networks with
Learnable Noise
- Title(参考訳): LeNo:学習可能な雑音をもつ対向ロバスト能動物体検出ネットワーク
- Authors: He Tang and He Wang
- Abstract要約: 本稿では,SODモデルに対する敵攻撃に対する軽量Learnble Noise (LeNo)を提案する。
LeNoは、逆画像とクリーン画像の両方でSODモデルの精度を保ち、推論速度も保持する。
ヒトの視覚的注意機構の中心に触発されて、敵の攻撃に対する防御力を高めるために、交差した形状のガウス分布で浅い雑音を初期化する。
- 参考スコア(独自算出の注目度): 7.794351961083746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pixel-wise predction with deep neural network has become an effective
paradigm for salient object detection (SOD) and achieved remakable performance.
However, very few SOD models are robust against adversarial attacks which are
visually imperceptible for human visual attention. The previous work robust
salient object detection against adversarial attacks (ROSA) shuffles the
pre-segmented superpixels and then refines the coarse saliency map by the
densely connected CRF. Different from ROSA that rely on various pre- and
post-processings, this paper proposes a light-weight Learnble Noise (LeNo) to
against adversarial attacks for SOD models. LeNo preserves accuracy of SOD
models on both adversarial and clean images, as well as inference speed. In
general, LeNo consists of a simple shallow noise and noise estimation that
embedded in the encoder and decoder of arbitrary SOD networks respectively.
Inspired by the center prior of human visual attention mechanism, we initialize
the shallow noise with a cross-shaped gaussian distribution for better defense
against adversarial attacks. Instead of adding additional network components
for post-processing, the proposed noise estimation modifies only one channel of
the decoder. With the deeply-supervised noise-decoupled training on
state-of-the-art RGB and RGB-D SOD networks, LeNo outperforms previous works
not only on adversarial images but also clean images, which contributes
stronger robustness for SOD.
- Abstract(参考訳): ディープニューラルネットワークを用いた画素ワイズ予測は、有能なオブジェクト検出(SOD)の有効なパラダイムとなり、再計算可能なパフォーマンスを実現している。
しかし、人間の視覚的注意には認識できない敵対的攻撃に対して堅牢なSODモデルはほとんどない。
以前の作業では、対向攻撃(ROSA)に対する堅牢なサルエント物体検出は、予め設定されたスーパーピクセルをシャッフルし、密結合されたCRFによって粗いサルエンシマップを洗練した。
本稿では,様々な前処理と後処理に依存するROSAと異なり,SODモデルに対する敵攻撃に対する軽量Learnble Noise (LeNo)を提案する。
LeNoは、逆画像とクリーン画像の両方でSODモデルの精度と推論速度を保存する。
一般にlenoは、任意のsodネットワークのエンコーダとデコーダに埋め込まれた単純な浅いノイズとノイズ推定で構成されている。
人間の視覚注意機構に先立つ中心に着想を得て, 逆攻撃に対する防御性を高めるために, ガウス分布を交互に配置することで, 浅い雑音を初期化する。
後処理のためのネットワークコンポーネントを追加する代わりに、提案したノイズ推定はデコーダの1つのチャネルだけを変更する。
最先端のRGBとRGB-D SODネットワークのノイズ分離トレーニングにより、LeNoは従来の敵画像だけでなくクリーン画像にも優れており、SODの強靭性に寄与している。
関連論文リスト
- Enhanced Wavelet Scattering Network for image inpainting detection [0.0]
本稿では,低レベル雑音解析に基づく塗装前駆体検出のための革新的なアイデアをいくつか提案する。
これはDual-Tree Complex Wavelet Transform (DT-CWT)と畳み込みニューラルネットワーク(CNN)を組み合わせて、偽エリア検出とローカライゼーションを実現している。
提案手法は最先端手法に対してベンチマークを行い,提案手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-25T15:27:05Z) - Defending Spiking Neural Networks against Adversarial Attacks through Image Purification [20.492531851480784]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Evaluating Similitude and Robustness of Deep Image Denoising Models via
Adversarial Attack [60.40356882897116]
ディープニューラルネットワーク(DNN)は、従来の画像復調アルゴリズムよりも優れたパフォーマンスを示している。
本稿では,現在のディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディナイジング・PGD(Denoising-PGD)と名づけられた敵攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-06-28T09:30:59Z) - Robust Real-World Image Super-Resolution against Adversarial Attacks [115.04009271192211]
準知覚不可能な雑音を持つ逆画像サンプルは、深層学習SRモデルを脅かす可能性がある。
本稿では,現実のSRに対して,潜在的な敵対的雑音をランダムに消去する頑健なディープラーニングフレームワークを提案する。
提案手法は敵攻撃に敏感であり,既存のモデルや防御よりも安定なSR結果を示す。
論文 参考訳(メタデータ) (2022-07-31T13:26:33Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - New SAR target recognition based on YOLO and very deep multi-canonical
correlation analysis [0.1503974529275767]
本稿では,異なるCNN層から有効な特徴を適応的に融合させることにより,SAR画像ターゲット分類のためのロバストな特徴抽出手法を提案する。
MSTARデータセットの実験により,提案手法が最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-10-28T18:10:26Z) - Object Detection based on OcSaFPN in Aerial Images with Noise [9.587619619262716]
オクターブ畳み込みに基づく意味的注意特徴ピラミッドネットワーク(OcSaFPN)は、ノイズによる物体検出の精度を高めるために提案されている。
提案アルゴリズムは,3つのデータセットで検証し,ガウス雑音や乗法雑音による最先端検出性能を実現する。
論文 参考訳(メタデータ) (2020-12-18T01:28:51Z) - Adversarial Perturbations Prevail in the Y-Channel of the YCbCr Color
Space [43.49959098842923]
ホワイトボックス攻撃では、RGB画像上で動作する深いモデルに対して、逆方向の摂動が一般的に学習される。
本稿では, YCbCr空間のYチャネルにおいて, 対向摂動が広まることを示す。
そこで本研究では,敵画像に対する防御法を提案する。
論文 参考訳(メタデータ) (2020-02-25T02:41:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。