論文の概要: Adversarial purification for no-reference image-quality metrics: applicability study and new methods
- arxiv url: http://arxiv.org/abs/2404.06957v1
- Date: Wed, 10 Apr 2024 12:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 14:40:47.746892
- Title: Adversarial purification for no-reference image-quality metrics: applicability study and new methods
- Title(参考訳): 非参照画像品質指標の逆清浄法:適用性研究と新しい方法
- Authors: Aleksandr Gushchin, Anna Chistyakova, Vladislav Minashkin, Anastasia Antsiferova, Dmitriy Vatolin,
- Abstract要約: 本稿では,IQAモデルに対する多種多様な攻撃を適用し,それらに対する防衛の成功について検討する。
浄化法は、幾何変換、圧縮、デノイング、現代のニューラルネットワークベースの手法など、さまざまな前処理テクニックをカバーした。
- 参考スコア(独自算出の注目度): 41.95502426953125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the area of adversarial attacks on image quality metrics has begun to be explored, whereas the area of defences remains under-researched. In this study, we aim to cover that case and check the transferability of adversarial purification defences from image classifiers to IQA methods. In this paper, we apply several widespread attacks on IQA models and examine the success of the defences against them. The purification methodologies covered different preprocessing techniques, including geometrical transformations, compression, denoising, and modern neural network-based methods. Also, we address the challenge of assessing the efficacy of a defensive methodology by proposing ways to estimate output visual quality and the success of neutralizing attacks. Defences were tested against attack on three IQA metrics -- Linearity, MetaIQA and SPAQ. The code for attacks and defences is available at: (link is hidden for a blind review).
- Abstract(参考訳): 近年,画像品質指標に対する敵対的攻撃の領域が探索され始めている一方,防衛の領域は未調査のままである。
本研究の目的は,画像分類器からIQA法への対向的浄化防御の伝達可能性を確認することである。
本稿では,IQAモデルに対する多種多様な攻撃を適用し,それらに対する防衛の成功について検討する。
浄化法は、幾何変換、圧縮、デノイング、現代のニューラルネットワークベースの手法など、さまざまな前処理テクニックをカバーした。
また,視覚的品質を推定し,攻撃を中和する手法を提案することにより,防御手法の有効性を評価するという課題にも対処する。
防衛は、リニアリティ、メタIQA、SPAQの3つのIQAメトリクスに対する攻撃に対してテストされた。
攻撃と防御のコードは以下の通りである(リンクは盲目レビューのために隠されている)。
関連論文リスト
- Guardians of Image Quality: Benchmarking Defenses Against Adversarial Attacks on Image Quality Metrics [35.87448891459325]
本稿では、IQAに対する敵攻撃の増加に対応する防衛機構の総合的なベンチマーク研究について述べる。
本研究は, 敵の浄化, 敵の訓練, 確証された堅牢性手法を含む25の防衛戦略を評価する。
我々は、IQAのスコアと画質を保存すべきであるとして、ディフェンスとIQAタスクへの適用性の違いを分析した。
論文 参考訳(メタデータ) (2024-08-02T19:02:49Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - A Random-patch based Defense Strategy Against Physical Attacks for Face
Recognition Systems [3.6202815454709536]
顔認識システム(FRS)の物理的攻撃を頑健に検出するランダムパッチ型防御戦略を提案する。
本手法は実世界の顔認識システムに容易に適用でき,検出性能を高めるために他の防御方法にも拡張できる。
論文 参考訳(メタデータ) (2023-04-16T16:11:56Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Attacking Face Recognition with T-shirts: Database, Vulnerability
Assessment and Detection [0.0]
我々は,100のユニークな提示攻撃器を用いた1,608のTシャツ攻撃の新しいTシャツ顔提示攻撃データベースを提案する。
このような攻撃は、顔認識システムのセキュリティを損なう可能性があり、いくつかの最先端の攻撃検出メカニズムが、新しい攻撃に対して堅牢に一般化できないことを示す。
論文 参考訳(メタデータ) (2022-11-14T14:11:23Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial Attacks against Face Recognition: A Comprehensive Study [3.766020696203255]
顔認識(FR)システムは優れた検証性能を示した。
近年の研究では、(深い)FRシステムは、知覚できない、または知覚できないが自然に見える対向的な入力画像に興味深い脆弱性を示すことが示されている。
論文 参考訳(メタデータ) (2020-07-22T22:46:00Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。