論文の概要: Guardians of Image Quality: Benchmarking Defenses Against Adversarial Attacks on Image Quality Metrics
- arxiv url: http://arxiv.org/abs/2408.01541v1
- Date: Fri, 2 Aug 2024 19:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 19:40:03.146046
- Title: Guardians of Image Quality: Benchmarking Defenses Against Adversarial Attacks on Image Quality Metrics
- Title(参考訳): 画像品質のガーディアン:画像品質指標に対する敵対的攻撃に対する防御のベンチマーク
- Authors: Alexander Gushchin, Khaled Abud, Georgii Bychkov, Ekaterina Shumitskaya, Anna Chistyakova, Sergey Lavrushkin, Bader Rasheed, Kirill Malyshev, Dmitriy Vatolin, Anastasia Antsiferova,
- Abstract要約: 本稿では、IQAに対する敵攻撃の増加に対応する防衛機構の総合的なベンチマーク研究について述べる。
本研究は, 敵の浄化, 敵の訓練, 確証された堅牢性手法を含む25の防衛戦略を評価する。
我々は、IQAのスコアと画質を保存すべきであるとして、ディフェンスとIQAタスクへの適用性の違いを分析した。
- 参考スコア(独自算出の注目度): 35.87448891459325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of Image Quality Assessment (IQA), the adversarial robustness of the metrics poses a critical concern. This paper presents a comprehensive benchmarking study of various defense mechanisms in response to the rise in adversarial attacks on IQA. We systematically evaluate 25 defense strategies, including adversarial purification, adversarial training, and certified robustness methods. We applied 14 adversarial attack algorithms of various types in both non-adaptive and adaptive settings and tested these defenses against them. We analyze the differences between defenses and their applicability to IQA tasks, considering that they should preserve IQA scores and image quality. The proposed benchmark aims to guide future developments and accepts submissions of new methods, with the latest results available online: https://videoprocessing.ai/benchmarks/iqa-defenses.html.
- Abstract(参考訳): 画像品質評価(IQA)の分野では、メトリクスの対角的堅牢性が重要な関心事となっている。
本稿では、IQAに対する敵攻撃の増加に対応する防衛機構の総合的なベンチマーク研究について述べる。
本研究は, 敵の浄化, 敵の訓練, 確証された堅牢性手法を含む25の防衛戦略を体系的に評価する。
非適応性および適応性の両方の設定において,14種類の逆攻撃アルゴリズムを適用し,これらの防御性を検証した。
我々は、IQAのスコアと画質を保存すべきであるとして、ディフェンスとIQAタスクへの適用性の違いを分析した。
提案されたベンチマークは、今後の開発をガイドし、新しいメソッドの提出を受け入れることを目的としており、最新の結果がオンラインで公開されている。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Adversarial purification for no-reference image-quality metrics: applicability study and new methods [41.95502426953125]
本稿では,IQAモデルに対する多種多様な攻撃を適用し,それらに対する防衛の成功について検討する。
浄化法は、幾何変換、圧縮、デノイング、現代のニューラルネットワークベースの手法など、さまざまな前処理テクニックをカバーした。
論文 参考訳(メタデータ) (2024-04-10T12:17:25Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Defense Against Adversarial Attacks on No-Reference Image Quality Models with Gradient Norm Regularization [18.95463890154886]
No-Reference Image Quality Assessment (NR-IQA)モデルは、メディア業界において重要な役割を果たす。
これらのモデルは、入力画像に知覚不能な摂動をもたらす敵攻撃に弱いことが判明した。
そこで本研究では,小さな摂動に攻撃された場合の予測スコアの安定性を向上させるための防衛手法を提案する。
論文 参考訳(メタデータ) (2024-03-18T01:11:53Z) - Comparing the Robustness of Modern No-Reference Image- and Video-Quality
Metrics to Adversarial Attacks [43.85564498709518]
本稿では、現代のメトリクスのロバスト性を、異なる敵攻撃に対して分析する。
いくつかのメトリクスは、敵攻撃に対する高い耐性を示し、弱いメトリクスよりも安全なベンチマークでの使用を可能にした。
論文 参考訳(メタデータ) (2023-10-10T19:21:41Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。