論文の概要: Attacking Perceptual Similarity Metrics
- arxiv url: http://arxiv.org/abs/2305.08840v1
- Date: Mon, 15 May 2023 17:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 13:30:03.949641
- Title: Attacking Perceptual Similarity Metrics
- Title(参考訳): 知覚的類似度指標の攻撃
- Authors: Abhijay Ghildyal and Feng Liu
- Abstract要約: 本研究は,非受容性対向摂動に対する類似度指標の頑健さを系統的に検討する。
まず、我々の研究のすべての指標が、共通の敵対的攻撃によって生じる摂動に影響を受けやすいことを示します。
次に,空間変換に基づく対向的摂動を用いて,広く採用されているLPIPSメトリックを攻撃した。
- 参考スコア(独自算出の注目度): 5.326626090397465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perceptual similarity metrics have progressively become more correlated with
human judgments on perceptual similarity; however, despite recent advances, the
addition of an imperceptible distortion can still compromise these metrics. In
our study, we systematically examine the robustness of these metrics to
imperceptible adversarial perturbations. Following the two-alternative
forced-choice experimental design with two distorted images and one reference
image, we perturb the distorted image closer to the reference via an
adversarial attack until the metric flips its judgment. We first show that all
metrics in our study are susceptible to perturbations generated via common
adversarial attacks such as FGSM, PGD, and the One-pixel attack. Next, we
attack the widely adopted LPIPS metric using spatial-transformation-based
adversarial perturbations (stAdv) in a white-box setting to craft adversarial
examples that can effectively transfer to other similarity metrics in a
black-box setting. We also combine the spatial attack stAdv with PGD
($\ell_\infty$-bounded) attack to increase transferability and use these
adversarial examples to benchmark the robustness of both traditional and
recently developed metrics. Our benchmark provides a good starting point for
discussion and further research on the robustness of metrics to imperceptible
adversarial perturbations.
- Abstract(参考訳): 知覚的類似度指標は、知覚的類似性に関する人間の判断と徐々に相関してきているが、近年の進歩にもかかわらず、知覚不能な歪みの追加はこれらの指標を損なう可能性がある。
本研究では,これらの指標のロバスト性について体系的に検討した。
2つの歪んだ画像と1つの参照画像による2つの交互な強制収縮実験設計の後、計量がその判断をひっくり返すまで、歪んだ画像を逆攻撃によって基準に近づける。
まず,本研究におけるすべての指標は,fgsm,pgd,one-pixel attackなどの一般的な敵攻撃によって生じる摂動に影響を受けやすいことを示した。
次に、空間変換に基づく逆転摂動(stAdv)を用いて広く採用されているLPIPSメトリックを攻撃し、ブラックボックス設定で他の類似度メトリクスに効果的に移行可能な逆転例を作成する。
また、空間攻撃 stAdv と PGD(\ell_\infty$-bounded) を組み合わせて転送可能性を高め、これらの逆例を用いて、従来および最近開発されたメトリクスの堅牢性をベンチマークする。
本ベンチマークは, 対角的摂動に対する指標の堅牢性について, 議論の出発点となる。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - On the Efficacy of Metrics to Describe Adversarial Attacks [3.867363075280544]
敵の防御は、敵の攻撃を許容する能力によって自然に評価される。
防御をテストするために、様々な敵攻撃が作成され、通常は回避能力とL0、L1、L2、Linfノルムの観点から記述される。
本研究は, 避難能力とLノルムが, 代表的な攻撃群に対する防御試験を行ったと主張する上で, 最も効果的な情報であるかどうかを問うものである。
論文 参考訳(メタデータ) (2023-01-30T16:15:40Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Universal Perturbation Attack on Differentiable No-Reference Image- and
Video-Quality Metrics [0.0]
一部の攻撃は、画像品質とビデオ品質のメトリクスを欺くことができる。
広汎な摂動を通して、識別可能な非参照品質指標を攻撃できる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-11-01T10:28:13Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Adversarial Contrastive Learning via Asymmetric InfoNCE [64.42740292752069]
非対称なInfoNCEの目的と対比した場合,非対称なサンプルを不等に扱うことを提案する。
非対称的な方法では、CLと対向学習の相反する目的の悪影響を効果的に軽減することができる。
実験の結果,提案手法は既存CL法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-18T04:14:36Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Perceptually Constrained Adversarial Attacks [2.0305676256390934]
通常適用される$L_p$ノルムを構造類似度指標(SSIM)尺度に置き換える。
当社のSSIM制限された敵対攻撃は、最先端の敵対的訓練を受けた分類器を破壊し、弾性ネット攻撃よりも類似またはより大きな成功率を達成できます。
本研究は,複数の防衛計画の性能を,従来よりも知覚的にはるかに有意義な方法で評価する。
論文 参考訳(メタデータ) (2021-02-14T12:28:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。