論文の概要: Exploiting and Defending Against the Approximate Linearity of Apple's
NeuralHash
- arxiv url: http://arxiv.org/abs/2207.14258v1
- Date: Thu, 28 Jul 2022 17:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 13:04:44.846925
- Title: Exploiting and Defending Against the Approximate Linearity of Apple's
NeuralHash
- Title(参考訳): appleのneuralhashの近似線形性を利用した攻撃と防御
- Authors: Jagdeep Singh Bhatia, Kevin Meng
- Abstract要約: AppleのNeuralHashは、消費者のプライバシーを損なうことなく、ユーザーのデバイスに違法コンテンツが存在することを検出することを目的としている。
我々はNeuralHashがほぼ線形であることに驚き、新たなブラックボックス攻撃の開発を促している。
古典的な暗号標準を用いた簡単な修正を提案する。
- 参考スコア(独自算出の注目度): 5.3888140834268246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perceptual hashes map images with identical semantic content to the same
$n$-bit hash value, while mapping semantically-different images to different
hashes. These algorithms carry important applications in cybersecurity such as
copyright infringement detection, content fingerprinting, and surveillance.
Apple's NeuralHash is one such system that aims to detect the presence of
illegal content on users' devices without compromising consumer privacy. We
make the surprising discovery that NeuralHash is approximately linear, which
inspires the development of novel black-box attacks that can (i) evade
detection of "illegal" images, (ii) generate near-collisions, and (iii) leak
information about hashed images, all without access to model parameters. These
vulnerabilities pose serious threats to NeuralHash's security goals; to address
them, we propose a simple fix using classical cryptographic standards.
- Abstract(参考訳): 知覚的ハッシュは同じ意味的内容の画像を同じ$n$-bitハッシュ値にマッピングし、意味的に異なるイメージを異なるハッシュにマッピングする。
これらのアルゴリズムは、著作権侵害の検出、コンテンツフィンガープリント、監視といったサイバーセキュリティにおける重要な応用を担っている。
AppleのNeuralHashは、消費者のプライバシーを損なうことなく、ユーザーのデバイスに違法コンテンツが存在することを検知するシステムである。
NeuralHashがほぼ直線的であるという驚くべき発見は、新たなブラックボックス攻撃を誘発する。
(i)「違法」な画像の検出を避けること。
(ii)ニアコリシオンを発生させ、
(iii)ハッシュ画像に関する情報をリークし、すべてモデルパラメータにアクセスできない。
これらの脆弱性はNeuralHashのセキュリティ目標に対して深刻な脅威となる。
関連論文リスト
- Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label [20.236328601459203]
本稿では,BadHashを提案する。
我々は、BadHashが、最先端のディープハッシュ方式よりも強力な攻撃能力と転送性を持つ、知覚不能な有毒なサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:10:25Z) - Self-Distilled Hashing for Deep Image Retrieval [25.645550298697938]
ハッシュベースの画像検索システムでは、元の入力から変換された入力は通常、異なるコードを生成する。
本稿では,拡張データの可能性を活用しつつ,相違を最小限に抑えるために,自己蒸留ハッシュ方式を提案する。
また、ハッシュプロキシに基づく類似性学習や、バイナリクロスエントロピーに基づく量子化損失を導入し、高品質なハッシュコードを提供する。
論文 参考訳(メタデータ) (2021-12-16T12:01:50Z) - Learning to Break Deep Perceptual Hashing: The Use Case NeuralHash [29.722113621868978]
Appleは最近、子供の性的虐待物質を検出するための深い知覚的ハッシュシステムNeuralHashを発表した。
ユーザのプライバシとシステムの信頼性の保護について、大衆の批判が持ち上がった。
現在の深い知覚的ハッシュは、堅牢でない可能性がある。
論文 参考訳(メタデータ) (2021-11-12T09:49:27Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Adversarial collision attacks on image hashing functions [9.391375268580806]
画像を修正して無関係なハッシュを生成することができ、極小摂動によって正確なハッシュ衝突を発生させることができることを示す。
白いボックス設定では、これらの衝突は、ほぼすべてのイメージペアとハッシュタイプに複製できる。
勾配に基づく画像ハッシュ攻撃に対する潜在的な軽減策をいくつか提案する。
論文 参考訳(メタデータ) (2020-11-18T18:59:02Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。