論文の概要: Modeling Deep Learning Based Privacy Attacks on Physical Mail
- arxiv url: http://arxiv.org/abs/2012.11803v2
- Date: Thu, 25 Mar 2021 21:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:17:13.889393
- Title: Modeling Deep Learning Based Privacy Attacks on Physical Mail
- Title(参考訳): 物理メール上のプライバシー攻撃に基づくディープラーニングのモデリング
- Authors: Bingyao Huang and Ruyi Lian and Dimitris Samaras and Haibin Ling
- Abstract要約: mail privacy protectionは、封筒内の隠れたコンテンツへの不正アクセスを防止することを目的としている。
高度に設計されたディープラーニングモデルでは、隠れたコンテンツは封筒を開けることなくほぼ復元できる。
- 参考スコア(独自算出の注目度): 89.3344470606211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mail privacy protection aims to prevent unauthorized access to hidden content
within an envelope since normal paper envelopes are not as safe as we think. In
this paper, for the first time, we show that with a well designed deep learning
model, the hidden content may be largely recovered without opening the
envelope. We start by modeling deep learning-based privacy attacks on physical
mail content as learning the mapping from the camera-captured envelope front
face image to the hidden content, then we explicitly model the mapping as a
combination of perspective transformation, image dehazing and denoising using a
deep convolutional neural network, named Neural-STE (See-Through-Envelope). We
show experimentally that hidden content details, such as texture and image
structure, can be clearly recovered. Finally, our formulation and model allow
us to design envelopes that can counter deep learning-based privacy attacks on
physical mail.
- Abstract(参考訳): メールのプライバシー保護は、通常の紙封筒ほど安全ではないため、封筒内の隠されたコンテンツへの不正アクセスを防止することを目的としている。
本稿では,高度に設計された深層学習モデルを用いて,エンベロープを開くことなく,隠れたコンテンツを大々的に復元できることを初めて示す。
まず,物理的メールコンテンツに対する深層学習に基づくプライバシー攻撃を,カメラでキャプチャされた表層画像から隠れたコンテンツへのマッピングを学習し,そのマッピングを,ニューラルネットワークneural-ste(see-through-envelope)と呼ばれる深層畳み込みニューラルネットワークを用いた遠近変換,画像デハジング,デノイジングの組み合わせとして明示的にモデル化する。
本研究では,テクスチャや画像構造などの隠された内容の詳細を明らかに復元できることを実験的に示す。
最後に、私たちの定式化とモデルにより、物理的なメールに対するディープラーニングベースのプライバシー攻撃に対抗するエンベロープを設計できます。
関連論文リスト
- PriPHiT: Privacy-Preserving Hierarchical Training of Deep Neural Networks [44.0097014096626]
エッジデバイスとクラウドサーバの両方でディープラーニングモデルのトレーニングフェーズを実行する方法を提案する。
提案するプライバシ保存方法は,敵の早期出口を利用してエッジのセンシティブなコンテンツを抑制し,タスク関連情報をクラウドに送信する。
論文 参考訳(メタデータ) (2024-08-09T14:33:34Z) - LDP-Feat: Image Features with Local Differential Privacy [10.306943706927006]
埋め込みから元の画像の特徴を復元できることを示すために,2つの新しい反転攻撃を提案する。
本稿では,画像特徴を局所的な差分プライバシーによって民営化する最初の手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T06:28:55Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning [14.505867475659276]
本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
論文 参考訳(メタデータ) (2023-03-09T05:00:17Z) - On the Design of Privacy-Aware Cameras: a Study on Deep Neural Networks [0.7646713951724011]
本稿では, カメラの歪みがデータ保護に及ぼす影響について検討する。
ライセンスプレート番号などの個人情報を抽出できないプライバシ対応カメラを構築する。
同時に、歪み画像から有用な非感度データを抽出できることを保証します。
論文 参考訳(メタデータ) (2022-08-24T08:45:31Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。