論文の概要: Improving Robustness with Image Filtering
- arxiv url: http://arxiv.org/abs/2112.11235v1
- Date: Tue, 21 Dec 2021 14:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 19:55:20.134134
- Title: Improving Robustness with Image Filtering
- Title(参考訳): 画像フィルタリングによるロバスト性向上
- Authors: Matteo Terzi, Mattia Carletti, Gian Antonio Susto
- Abstract要約: 本稿では、画像の基本ノードとその接続をグラフ構造を介して抽出する、画像グラフエクストラクタ(IGE)と呼ばれる新しい画像フィルタリング手法を提案する。
IGE表現を活用することで、攻撃者がピクセルを絡めて悪意あるパターンを生成できない新しいディフェンスメソッドであるFilting as a Defenseを構築します。
フィルタ画像によるデータ拡張は,データの破損に対するモデルの堅牢性を効果的に改善することを示す。
- 参考スコア(独自算出の注目度): 3.169089186688223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial robustness is one of the most challenging problems in Deep
Learning and Computer Vision research. All the state-of-the-art techniques
require a time-consuming procedure that creates cleverly perturbed images. Due
to its cost, many solutions have been proposed to avoid Adversarial Training.
However, all these attempts proved ineffective as the attacker manages to
exploit spurious correlations among pixels to trigger brittle features
implicitly learned by the model. This paper first introduces a new image
filtering scheme called Image-Graph Extractor (IGE) that extracts the
fundamental nodes of an image and their connections through a graph structure.
By leveraging the IGE representation, we build a new defense method, Filtering
As a Defense, that does not allow the attacker to entangle pixels to create
malicious patterns. Moreover, we show that data augmentation with filtered
images effectively improves the model's robustness to data corruption. We
validate our techniques on CIFAR-10, CIFAR-100, and ImageNet.
- Abstract(参考訳): 敵対的堅牢性は、ディープラーニングとコンピュータビジョン研究において最も難しい問題の1つである。
最先端の技術はすべて、巧みにゆるむ画像を生成する時間を要する。
そのコストのため、敵訓練を避けるために多くの解決策が提案されている。
しかし、これらすべての試みは、攻撃者が画素間の急激な相関を利用して、モデルによって暗黙的に学習された脆い特徴をトリガーするため、効果がないことが証明された。
本稿ではまず,画像の基本ノードとその接続をグラフ構造を通して抽出するイメージグラフ抽出器(ige)と呼ばれる新しい画像フィルタリング手法を提案する。
IGE表現を活用することで、攻撃者がピクセルを絡めて悪意あるパターンを生成できない新しいディフェンスメソッドであるFilting as a Defenseを構築します。
さらに,フィルタ画像を用いたデータ拡張により,データ破損に対するモデルの頑健性が効果的に向上することを示す。
我々は,CIFAR-10,CIFAR-100,ImageNet上で本手法を検証する。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Get Fooled for the Right Reason: Improving Adversarial Robustness
through a Teacher-guided Curriculum Learning Approach [17.654350836042813]
現在のSOTAの頑健なモデルは、主に敵の訓練(AT)に基づいており、内部または外部の最小化ステップにおいてのみ、一部の正規化器によって異なる。
学習中に次のような考え方を強制する非定性的手法を提案する。
提案手法は,既存のATモデルに対して若干の余分な労力(10~20%)を要し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2021-10-30T17:47:14Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Image Augmentation Is All You Need: Regularizing Deep Reinforcement
Learning from Pixels [37.726433732939114]
本稿では,標準モデルフリー強化学習アルゴリズムに適用可能な,シンプルなデータ拡張手法を提案する。
コンピュータビジョンタスクでよく使われる入力摂動を利用して値関数を正規化する。
我々の手法はモデルなし強化学習アルゴリズムと組み合わせることができる。
論文 参考訳(メタデータ) (2020-04-28T16:48:16Z) - Encoding Power Traces as Images for Efficient Side-Channel Analysis [0.0]
サイドチャネル攻撃(SCA)は、暗号アルゴリズムの実装を攻撃するための強力な方法である。
ディープラーニング(DL)メソッドは、SCAを単純化し、同時に攻撃を成功させるために必要なサイドチャネルトレースの量を削減します。
本稿では,1次元トレースを2次元画像として解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-23T08:00:37Z) - Applying Tensor Decomposition to image for Robustness against
Adversarial Attack [3.347059384111439]
小さな摂動を加えることで、ディープラーニングモデルを簡単に騙すことができる。
本稿では,逆例に対してモデルを守るためにテンソル分解を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-02-28T18:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。