論文の概要: Adversarial collision attacks on image hashing functions
- arxiv url: http://arxiv.org/abs/2011.09473v1
- Date: Wed, 18 Nov 2020 18:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:29:06.427286
- Title: Adversarial collision attacks on image hashing functions
- Title(参考訳): 画像ハッシュ機能に対する逆衝突攻撃
- Authors: Brian Dolhansky, Cristian Canton Ferrer
- Abstract要約: 画像を修正して無関係なハッシュを生成することができ、極小摂動によって正確なハッシュ衝突を発生させることができることを示す。
白いボックス設定では、これらの衝突は、ほぼすべてのイメージペアとハッシュタイプに複製できる。
勾配に基づく画像ハッシュ攻撃に対する潜在的な軽減策をいくつか提案する。
- 参考スコア(独自算出の注目度): 9.391375268580806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hashing images with a perceptual algorithm is a common approach to solving
duplicate image detection problems. However, perceptual image hashing
algorithms are differentiable, and are thus vulnerable to gradient-based
adversarial attacks. We demonstrate that not only is it possible to modify an
image to produce an unrelated hash, but an exact image hash collision between a
source and target image can be produced via minuscule adversarial
perturbations. In a white box setting, these collisions can be replicated
across nearly every image pair and hash type (including both deep and
non-learned hashes). Furthermore, by attacking points other than the output of
a hashing function, an attacker can avoid having to know the details of a
particular algorithm, resulting in collisions that transfer across different
hash sizes or model architectures. Using these techniques, an adversary can
poison the image lookup table of a duplicate image detection service, resulting
in undefined or unwanted behavior. Finally, we offer several potential
mitigations to gradient-based image hash attacks.
- Abstract(参考訳): 知覚アルゴリズムによる画像のハッシュ化は、重複画像検出問題を解決する一般的なアプローチである。
しかし、知覚的画像ハッシュアルゴリズムは微分可能であり、勾配に基づく逆攻撃に対して脆弱である。
我々は,画像の修正によって無関係なハッシュを生成することができるだけでなく,ソースとターゲット画像の正確なハッシュ衝突を極小逆転摂動によって生成できることを実証した。
ホワイトボックスの設定では、これらの衝突は、ほとんどすべてのイメージペアとハッシュタイプ(深いハッシュと非学習ハッシュの両方を含む)に複製することができる。
さらに、ハッシュ関数の出力以外のポイントを攻撃することで、攻撃者は特定のアルゴリズムの詳細を知る必要をなくし、異なるハッシュサイズやモデルアーキテクチャにまたがる衝突を引き起こす。
これらの技術を用いて、敵は重複画像検出サービスのイメージルックアップテーブルを汚染し、未定義または不要な振る舞いをもたらす。
最後に、勾配に基づく画像ハッシュ攻撃に対する潜在的な軽減策をいくつか提示する。
関連論文リスト
- Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Exploiting and Defending Against the Approximate Linearity of Apple's
NeuralHash [5.3888140834268246]
AppleのNeuralHashは、消費者のプライバシーを損なうことなく、ユーザーのデバイスに違法コンテンツが存在することを検出することを目的としている。
我々はNeuralHashがほぼ線形であることに驚き、新たなブラックボックス攻撃の開発を促している。
古典的な暗号標準を用いた簡単な修正を提案する。
論文 参考訳(メタデータ) (2022-07-28T17:45:01Z) - Self-Distilled Hashing for Deep Image Retrieval [25.645550298697938]
ハッシュベースの画像検索システムでは、元の入力から変換された入力は通常、異なるコードを生成する。
本稿では,拡張データの可能性を活用しつつ,相違を最小限に抑えるために,自己蒸留ハッシュ方式を提案する。
また、ハッシュプロキシに基づく類似性学習や、バイナリクロスエントロピーに基づく量子化損失を導入し、高品質なハッシュコードを提供する。
論文 参考訳(メタデータ) (2021-12-16T12:01:50Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - State of the Art: Image Hashing [0.0]
知覚的画像ハッシュ法は、画像検索、重複画像やほぼ重複画像の発見、大規模画像コンテンツからの類似画像の発見など、様々な目的に応用されることが多い。
画像ハッシュ技術の主な課題は、視覚的に同一である画像において、同じまたは類似したハッシュを生成する、ロバストな特徴抽出である。
本稿では,従来の知覚ハッシュ法と深層学習に基づく知覚ハッシュ法について概説する。
論文 参考訳(メタデータ) (2021-08-26T13:53:30Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z) - Detecting Patch Adversarial Attacks with Image Residuals [9.169947558498535]
識別器は、クリーンサンプルと逆サンプルを区別するために訓練される。
得られた残基が敵攻撃のデジタル指紋として機能することを示す。
その結果,提案手法は従来見つからなかった,より強力な攻撃に対して一般化可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-28T01:28:22Z) - Towards Evaluating Gaussian Blurring in Perceptual Hashing as a Facial
Image Filter [0.0]
知覚ハッシュは、2つの画像が同一であるかどうかを検出するためにしばしば用いられる。
本稿では,顔画像に特有な個人画像の誤用を検出するために,知覚的ハッシュにおけるガウス的ぼかしの効果を実験的に検討する。
論文 参考訳(メタデータ) (2020-02-01T04:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。