論文の概要: Edge-Based Learning for Improved Classification Under Adversarial Noise
- arxiv url: http://arxiv.org/abs/2504.20077v1
- Date: Fri, 25 Apr 2025 04:04:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.564959
- Title: Edge-Based Learning for Improved Classification Under Adversarial Noise
- Title(参考訳): エッジベース学習による対向雑音下での分類改善
- Authors: Manish Kansana, Keyan Alexander Rahimi, Elias Hossain, Iman Dehzangi, Noorbakhsh Amiri Golilarz,
- Abstract要約: アドリアルノイズは画像に小さな摂動をもたらし、深層学習モデルを誤分類に導く。
本研究では,画像特徴のトレーニングが頑健性を向上させるかどうかを検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial noise introduces small perturbations in images, misleading deep learning models into misclassification and significantly impacting recognition accuracy. In this study, we analyzed the effects of Fast Gradient Sign Method (FGSM) adversarial noise on image classification and investigated whether training on specific image features can improve robustness. We hypothesize that while adversarial noise perturbs various regions of an image, edges may remain relatively stable and provide essential structural information for classification. To test this, we conducted a series of experiments using brain tumor and COVID datasets. Initially, we trained the models on clean images and then introduced subtle adversarial perturbations, which caused deep learning models to significantly misclassify the images. Retraining on a combination of clean and noisy images led to improved performance. To evaluate the robustness of the edge features, we extracted edges from the original/clean images and trained the models exclusively on edge-based representations. When noise was introduced to the images, the edge-based models demonstrated greater resilience to adversarial attacks compared to those trained on the original or clean images. These results suggest that while adversarial noise is able to exploit complex non-edge regions significantly more than edges, the improvement in the accuracy after retraining is marginally more in the original data as compared to the edges. Thus, leveraging edge-based learning can improve the resilience of deep learning models against adversarial perturbations.
- Abstract(参考訳): 敵対的ノイズは画像に小さな摂動を導入し、深層学習モデルを誤分類化し、認識精度に大きな影響を及ぼす。
本研究では,FGSM(Fast Gradient Sign Method)の逆方向雑音が画像分類に与える影響を解析し,画像特徴に対するトレーニングが頑健性を向上させるかを検討した。
逆方向の雑音が画像の様々な領域を乱す一方で、エッジは比較的安定しており、分類に不可欠な構造情報を提供するという仮説を立てる。
これをテストするために、脳腫瘍とCOVIDデータセットを用いた一連の実験を行った。
当初、クリーンな画像に基づいてモデルをトレーニングし、微妙な逆方向の摂動を導入し、深層学習モデルが画像の分類を著しく間違えた。
クリーンな画像とノイズの多い画像の組み合わせによるリトレーニングにより、パフォーマンスが向上した。
エッジ特徴のロバスト性を評価するため,オリジナル/クリーン画像からエッジを抽出し,エッジベース表現のみに基づいてモデルを訓練した。
画像にノイズが導入されたとき、エッジベースのモデルは、元の画像やきれいな画像で訓練されたものよりも、敵の攻撃に対する弾力性を示した。
これらの結果から, 対向ノイズはエッジよりも複雑な非エッジ領域を著しく活用できるが, 再トレーニング後の精度の向上はエッジに比べて原データの方が極端に高いことが示唆された。
したがって、エッジベースの学習を活用することで、敵対的摂動に対するディープラーニングモデルのレジリエンスを向上させることができる。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Confidence-aware Denoised Fine-tuning of Off-the-shelf Models for Certified Robustness [56.2479170374811]
我々はFT-CADIS(Fun Fine-Tuning with Confidence-Aware Denoized Image Selection)を紹介する。
FT-CADISは、既成の分類器の信頼性が、視覚的平滑化中の幻覚像を効果的に識別できるという観察に着想を得たものである。
様々なベンチマークにおいて、すべての$ell$-adversary半径にわたる偏微分平滑化法のうち、最先端の証明されたロバスト性を確立している。
論文 参考訳(メタデータ) (2024-11-13T09:13:20Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - Fidelity Estimation Improves Noisy-Image Classification with Pretrained
Networks [12.814135905559992]
本稿では,事前学習した分類器に適用可能な手法を提案する。
提案手法では,特徴抽出器の内部表現に融合した忠実度マップの推定値を利用する。
オラクルの忠実度マップを用いた場合, ノイズや復元画像のトレーニングにおいて, 完全に再トレーニングされた手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-01T17:58:32Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。