論文の概要: Learning to Break Deep Perceptual Hashing: The Use Case NeuralHash
- arxiv url: http://arxiv.org/abs/2111.06628v1
- Date: Fri, 12 Nov 2021 09:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:47:40.825622
- Title: Learning to Break Deep Perceptual Hashing: The Use Case NeuralHash
- Title(参考訳): 深い知覚的ハッシュを破る学習:neuralhashのユースケース
- Authors: Lukas Struppek, Dominik Hintersdorf, Daniel Neider, Kristian Kersting
- Abstract要約: Appleは最近、子供の性的虐待物質を検出するための深い知覚的ハッシュシステムNeuralHashを発表した。
ユーザのプライバシとシステムの信頼性の保護について、大衆の批判が持ち上がった。
現在の深い知覚的ハッシュは、堅牢でない可能性がある。
- 参考スコア(独自算出の注目度): 15.571440574978562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Apple recently revealed its deep perceptual hashing system NeuralHash to
detect child sexual abuse material (CSAM) on user devices before files are
uploaded to its iCloud service. Public criticism quickly arose regarding the
protection of user privacy and the system's reliability. In this paper, we
present the first comprehensive empirical analysis of deep perceptual hashing
based on NeuralHash. Specifically, we show that current deep perceptual hashing
may not be robust. An adversary can manipulate the hash values by applying
slight changes in images, either induced by gradient-based approaches or simply
by performing standard image transformations, forcing or preventing hash
collisions. Such attacks permit malicious actors easily to exploit the
detection system: from hiding abusive material to framing innocent users,
everything is possible. Moreover, using the hash values, inferences can still
be made about the data stored on user devices. In our view, based on our
results, deep perceptual hashing in its current form is generally not ready for
robust client-side scanning and should not be used from a privacy perspective.
- Abstract(参考訳): Appleは最近、ユーザーのデバイス上で子どもの性的虐待物質(CSAM)を検知し、ファイルをiCloudサービスにアップロードする、深い知覚的ハッシュシステムNeuralHashを公開した。
ユーザのプライバシ保護とシステムの信頼性に関する批判がすぐに高まった。
本稿では,neuralhashに基づく深部知覚ハッシュの包括的解析を初めて行った。
具体的には、現在の深い知覚ハッシュは堅牢でない可能性があることを示す。
相手は、勾配ベースのアプローチによって引き起こされた画像のわずかな変化を施すことや、標準画像変換の実行、ハッシュ衝突の強制または防止によってハッシュ値を操作できる。
このような攻撃は、悪意のあるアクターが検知システムを簡単に利用することを可能にします。
さらに、ハッシュ値を使用することで、ユーザデバイスに格納されたデータに関する推論を行うこともできる。
私たちの見解では、我々の見解では、現在の形式での深い知覚的ハッシュは、一般的に堅牢なクライアントサイドスキャンの準備ができていないため、プライバシの観点から使用すべきではありません。
関連論文リスト
- Protecting Onion Service Users Against Phishing [1.6435014180036467]
フィッシングサイトは、Torのタマネギサービスに共通する現象である。
フィッシングは 本物の玉ねぎのドメイン名と区別するのが 非常に難しいと フィッシングを悪用する
タマネギサービスのオペレータは、ユーザをフィッシングから守るためのいくつかの戦略を考案した。
訪問したサービスに関する痕跡を発生させることなく、ユーザーをフィッシングから守ることはできない。
論文 参考訳(メタデータ) (2024-08-14T19:51:30Z) - ConceptHash: Interpretable Fine-Grained Hashing via Concept Discovery [128.30514851911218]
ConceptHashは、サブコードレベルの解釈性を実現する新しい方法である。
ConceptHashでは、各サブコードは、オブジェクト部分のような人間の理解可能な概念に対応する。
学習したハッシュコードが、きめ細かいオブジェクトクラス内で識別可能であることを保証するために、言語ガイダンスを組み込んだ。
論文 参考訳(メタデータ) (2024-06-12T17:49:26Z) - Exploiting and Defending Against the Approximate Linearity of Apple's
NeuralHash [5.3888140834268246]
AppleのNeuralHashは、消費者のプライバシーを損なうことなく、ユーザーのデバイスに違法コンテンツが存在することを検出することを目的としている。
我々はNeuralHashがほぼ線形であることに驚き、新たなブラックボックス攻撃の開発を促している。
古典的な暗号標準を用いた簡単な修正を提案する。
論文 参考訳(メタデータ) (2022-07-28T17:45:01Z) - BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label [20.236328601459203]
本稿では,BadHashを提案する。
我々は、BadHashが、最先端のディープハッシュ方式よりも強力な攻撃能力と転送性を持つ、知覚不能な有毒なサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:10:25Z) - Self-Distilled Hashing for Deep Image Retrieval [25.645550298697938]
ハッシュベースの画像検索システムでは、元の入力から変換された入力は通常、異なるコードを生成する。
本稿では,拡張データの可能性を活用しつつ,相違を最小限に抑えるために,自己蒸留ハッシュ方式を提案する。
また、ハッシュプロキシに基づく類似性学習や、バイナリクロスエントロピーに基づく量子化損失を導入し、高品質なハッシュコードを提供する。
論文 参考訳(メタデータ) (2021-12-16T12:01:50Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Adversarial collision attacks on image hashing functions [9.391375268580806]
画像を修正して無関係なハッシュを生成することができ、極小摂動によって正確なハッシュ衝突を発生させることができることを示す。
白いボックス設定では、これらの衝突は、ほぼすべてのイメージペアとハッシュタイプに複製できる。
勾配に基づく画像ハッシュ攻撃に対する潜在的な軽減策をいくつか提案する。
論文 参考訳(メタデータ) (2020-11-18T18:59:02Z) - Deep Momentum Uncertainty Hashing [65.27971340060687]
我々は,新しいDeep Momentum Uncertainity Hashing (DMUH)を提案する。
トレーニング中の不確実性を明示的に推定し、不確実性情報を利用して近似過程を導出する。
提案手法は,すべてのデータセット上で最高の性能を達成し,既存の最先端手法を大きなマージンで超越する。
論文 参考訳(メタデータ) (2020-09-17T01:57:45Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z) - A Survey on Deep Hashing Methods [52.326472103233854]
最寄りの検索は、データベースからクエリまでの距離が最小のサンプルを取得することを目的としている。
ディープラーニングの発展により、ディープハッシュ法は従来の方法よりも多くの利点を示す。
深い教師付きハッシュは、ペアワイズ法、ランキングベースの方法、ポイントワイズ法、量子化に分類される。
深い教師なしハッシュは、類似性再構築に基づく方法、擬似ラベルに基づく方法、予測自由な自己教師あり学習に基づく方法に分類される。
論文 参考訳(メタデータ) (2020-03-04T08:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。