論文の概要: Property-Preserving Hashing for $\ell_1$-Distance Predicates: Applications to Countering Adversarial Input Attacks
- arxiv url: http://arxiv.org/abs/2504.16355v1
- Date: Wed, 23 Apr 2025 02:11:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.972792
- Title: Property-Preserving Hashing for $\ell_1$-Distance Predicates: Applications to Countering Adversarial Input Attacks
- Title(参考訳): $\ell_1$-Distance 述語に対するプロパティ保存ハッシュ: 逆入力攻撃対策への応用
- Authors: Hassan Asghar, Chenhan Zhang, Dali Kaafar,
- Abstract要約: 知覚ハッシュは、入力画像が様々なセキュリティアプリケーションを持つ参照画像と類似しているかどうかを検出するために使用される。
近年,入力画像に小さな知覚的変化をもたらす逆入力攻撃に対処することが示されている。
プロパティ保存ハッシュ(PPH)は、ハッシュドメイン内の入力のいくつかの特性(述語)を保存する暗号の最近の構成である。
- 参考スコア(独自算出の注目度): 1.5293427903448022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perceptual hashing is used to detect whether an input image is similar to a reference image with a variety of security applications. Recently, they have been shown to succumb to adversarial input attacks which make small imperceptible changes to the input image yet the hashing algorithm does not detect its similarity to the original image. Property-preserving hashing (PPH) is a recent construct in cryptography, which preserves some property (predicate) of its inputs in the hash domain. Researchers have so far shown constructions of PPH for Hamming distance predicates, which, for instance, outputs 1 if two inputs are within Hamming distance $t$. A key feature of PPH is its strong correctness guarantee, i.e., the probability that the predicate will not be correctly evaluated in the hash domain is negligible. Motivated by the use case of detecting similar images under adversarial setting, we propose the first PPH construction for an $\ell_1$-distance predicate. Roughly, this predicate checks if the two one-sided $\ell_1$-distances between two images are within a threshold $t$. Since many adversarial attacks use $\ell_2$-distance (related to $\ell_1$-distance) as the objective function to perturb the input image, by appropriately choosing the threshold $t$, we can force the attacker to add considerable noise to evade detection, and hence significantly deteriorate the image quality. Our proposed scheme is highly efficient, and runs in time $O(t^2)$. For grayscale images of size $28 \times 28$, we can evaluate the predicate in $0.0784$ seconds when pixel values are perturbed by up to $1 \%$. For larger RGB images of size $224 \times 224$, by dividing the image into 1,000 blocks, we achieve times of $0.0128$ seconds per block for $1 \%$ change, and up to $0.2641$ seconds per block for $14\%$ change.
- Abstract(参考訳): 知覚ハッシュは、入力画像が様々なセキュリティアプリケーションを持つ参照画像と類似しているかどうかを検出するために使用される。
近年, ハッシュアルゴリズムは, 元の画像と類似性を検出できないが, 入力画像に小さな知覚的変化を生じさせるような, 逆入力攻撃に陥ることが示されている。
プロパティ保存ハッシュ(PPH)は、ハッシュドメイン内の入力のいくつかの特性(述語)を保存する暗号の最近の構成である。
研究者はこれまでに、ハミング距離述語のためのPPHの構成を示しており、例えば、2つの入力がハミング距離$t$内であれば1を出力する。
PPHの重要な特徴は、その強い正しさを保証すること、すなわち、述語がハッシュ領域で正しく評価されない確率が無視可能であることである。
対向条件下での類似画像検出のユースケースにより,$\ell_1$-distance述語に対する最初のPPH構成を提案する。
概して、この述語は2つの画像間の片面$\ell_1$-distanceが閾値$t$内にあるかどうかをチェックする。
多くの敵攻撃では、入力画像を摂動する目的関数として$\ell_2$-distance($\ell_1$-distance)を使用するため、閾値$t$を適切に選択することで、攻撃者にかなりのノイズを加えて検出を回避させ、画像品質を著しく低下させることができる。
提案手法は非常に効率的で,時間帯は$O(t^2)$である。
サイズ28ドル(約2,800円)のグレースケール画像の場合、ピクセル値が最大1 \%(約1,400円)まで乱される場合、0.0784ドル秒で述語を評価することができる。
サイズが224 \times 224$のRGB画像の場合、イメージを1000ブロックに分割することで、1ブロックあたり0.0128$秒を$1 \%$変更し、1ブロックあたり0.2641$秒を$14\%変更します。
関連論文リスト
- Stochastic Bandits Robust to Adversarial Attacks [33.278131584647745]
本稿では,敵攻撃に対して頑健なマルチアームバンディットアルゴリズムについて検討する。
我々は、攻撃予算の知識の有無に関わらず、このモデルの2つのケースを調査する。
我々は、加法的あるいは乗法的な$C$依存項を持つ後悔境界を持つ2種類のアルゴリズムを考案する。
論文 参考訳(メタデータ) (2024-08-16T17:41:35Z) - Perturb-and-Project: Differentially Private Similarities and Marginals [73.98880839337873]
差分プライバシーのための入力摂動フレームワークを再検討し、入力にノイズを付加する。
まず、ペアワイズ・コサイン類似性をプライベートにリリースするための新しい効率的なアルゴリズムを設計する。
我々は,$k$の辺縁クエリを$n$の機能に対して計算する新しいアルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-06-07T12:07:16Z) - Online Robust Mean Estimation [37.746091744197656]
オンライン環境における高次元ロバスト平均推定問題について検討する。
このモデルでは、オンラインロバスト平均推定の主な2つの結果が証明されている。
論文 参考訳(メタデータ) (2023-10-24T15:28:43Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Provably Adversarially Robust Nearest Prototype Classifiers [46.576144913096705]
最寄りのプロトタイプ(NPC)は、選択された距離メートル法に関して、最も近いプロトタイプのラベルを各入力ポイントに割り当てる。
以前の作業では、NPCに対して同じ$ell_p$-distanceを使用する場合、$ell_p$-threatモデルにおける最小対向摂動の低い境界を提供することができた。
本稿では,判定に $ell_p$-distances と認証に $ell_q$-threat モデルを使用する場合の複雑性について,完全な議論を行う。
論文 参考訳(メタデータ) (2022-07-14T21:22:30Z) - Corralling a Larger Band of Bandits: A Case Study on Switching Regret
for Linear Bandits [99.86860277006318]
本稿では,一組の逆アルゴリズムを組み合わせ,学習することの問題点について考察する。
Agarwal et al. の CORRAL はこの目標を、$widetildeO(sqrtd S T)$ の残酷なオーバーヘッドで達成している。
この問題に触発されて、後悔のオーバーヘッドが百万ドルにしか依存しない大規模バンディットアルゴリズムのバンドを囲む新しいレシピを提案する。
論文 参考訳(メタデータ) (2022-02-12T21:55:44Z) - Mind the box: $l_1$-APGD for sparse adversarial attacks on image
classifiers [61.46999584579775]
我々は、この効果的な脅威モデルのための最も急勾配ステップの空間性について検討する。
本稿では,小予算の反復であっても高い有効性を有するPGDの適応形式を提案する。
論文 参考訳(メタデータ) (2021-03-01T18:53:32Z) - Sparse R-CNN: End-to-End Object Detection with Learnable Proposals [77.9701193170127]
Sparse R-CNNは、画像中の物体検出のための純粋にスパースな方法である。
最終的な予測は、最大でない処理後抑制なしで直接出力される。
われわれの研究が、物体検知器に先立って密集した慣例を再考することを願っている。
論文 参考訳(メタデータ) (2020-11-25T00:01:28Z) - Adversarial collision attacks on image hashing functions [9.391375268580806]
画像を修正して無関係なハッシュを生成することができ、極小摂動によって正確なハッシュ衝突を発生させることができることを示す。
白いボックス設定では、これらの衝突は、ほぼすべてのイメージペアとハッシュタイプに複製できる。
勾配に基づく画像ハッシュ攻撃に対する潜在的な軽減策をいくつか提案する。
論文 参考訳(メタデータ) (2020-11-18T18:59:02Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z) - Random Smoothing Might be Unable to Certify $\ell_\infty$ Robustness for
High-Dimensional Images [23.264535488112134]
乱数平滑化の難易度は, $ell_p$ の半径 $epsilon$ の攻撃に対して, $p>2$ のとき, 対逆ロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2020-02-10T03:26:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。