論文の概要: Privacy-Preserving Image Sharing via Sparsifying Layers on Convolutional
Groups
- arxiv url: http://arxiv.org/abs/2002.01469v1
- Date: Tue, 4 Feb 2020 18:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:45:23.937400
- Title: Privacy-Preserving Image Sharing via Sparsifying Layers on Convolutional
Groups
- Title(参考訳): 畳み込み層による畳み込み型画像共有のプライバシー保護
- Authors: Sohrab Ferdowsi, Behrooz Razeghi, Taras Holotyak, Flavio P. Calmon,
Slava Voloshynovskiy
- Abstract要約: 本稿では,大規模なセットアップにおいて,プライバシを意識した画像共有の問題に対処する実践的な枠組みを提案する。
画像は、一方から、表現は、プライバシー保護の膨大なコストを払わずに、パブリックドメインに格納されるようにエンコードします。
認証されたユーザは、簡単に安全に維持できる非常にコンパクトなキーが提供される。
これは、対応するアクセスグラインド画像の曖昧さと忠実な再構築に使用できる。
- 参考スコア(独自算出の注目度): 11.955557264002204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a practical framework to address the problem of privacy-aware
image sharing in large-scale setups. We argue that, while compactness is always
desired at scale, this need is more severe when trying to furthermore protect
the privacy-sensitive content. We therefore encode images, such that, from one
hand, representations are stored in the public domain without paying the huge
cost of privacy protection, but ambiguated and hence leaking no discernible
content from the images, unless a combinatorially-expensive guessing mechanism
is available for the attacker. From the other hand, authorized users are
provided with very compact keys that can easily be kept secure. This can be
used to disambiguate and reconstruct faithfully the corresponding
access-granted images. We achieve this with a convolutional autoencoder of our
design, where feature maps are passed independently through sparsifying
transformations, providing multiple compact codes, each responsible for
reconstructing different attributes of the image. The framework is tested on a
large-scale database of images with public implementation available.
- Abstract(参考訳): 本稿では,大規模な設定において,プライバシーに配慮した画像共有の問題に対処する実践的な枠組みを提案する。
コンパクト性は常に大規模に求められていますが、プライバシーに敏感なコンテンツをさらに保護しようとすると、このニーズはさらに深刻になります。
そこで我々は、画像のエンコードを行い、一方から、表現はプライバシー保護の膨大なコストを払わずにパブリックドメインに格納されるが、それゆえに、攻撃者に対して組合せ的探索的な推測機構が利用できない限り、画像から識別可能なコンテンツが漏れないようにした。
一方、認証されたユーザには、セキュアに維持できる非常にコンパクトなキーが提供されている。
これは、対応するアクセスグラインド画像の曖昧化と再構築に使用できる。
我々は、画像の異なる属性を再構築する責任を負う複数のコンパクトコードを提供しながら、機能マップをスパース化変換を通じて独立に渡す、我々の設計の畳み込みオートエンコーダでこれを達成する。
このフレームワークは、公開実装が利用可能な大規模な画像データベース上でテストされる。
関連論文リスト
- Catch You Everything Everywhere: Guarding Textual Inversion via Concept Watermarking [67.60174799881597]
本稿では,透かし情報を対象概念に埋め込んで,その概念に基づいて生成された画像から抽出する新しい概念透かしを提案する。
実際には、コンセプトオーナは、自身のコンセプトを異なる透かし(e, serial number)をプラットフォームにアップロードすることができ、プラットフォームは異なるシリアル番号を、その後の追跡と法医学のために割り当てる。
論文 参考訳(メタデータ) (2023-09-12T03:33:13Z) - LDP-Feat: Image Features with Local Differential Privacy [10.306943706927006]
埋め込みから元の画像の特徴を復元できることを示すために,2つの新しい反転攻撃を提案する。
本稿では,画像特徴を局所的な差分プライバシーによって民営化する最初の手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T06:28:55Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Privacy-Preserving Image Classification Using ConvMixer with Adaptive
Permutation Matrix [13.890279045382623]
本稿では,ConvMixer構造を用いた暗号化画像を用いたプライバシー保護画像分類手法を提案する。
適応ネットワークを用いた従来の手法では,大きな画像は適用できない。
本研究では,適応ネットワークを使わずに,ブロックワイズされた画像をConvMixerに適用できる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T09:55:31Z) - Privacy Preserving Image Registration [4.709526996577762]
プライバシ保護体制下での画像登録の問題は、画像が秘密であり、明確には公開できないと仮定して定式化している。
我々は古典的な登録パラダイムを拡張し、セキュアなマルチパーティ計算や同型暗号化といった高度な暗号化ツールを考慮に入れます。
以上の結果から, 画像登録のためのプライバシー保護が実現可能であり, 医用画像の高感度化にも適用可能であることが示唆された。
論文 参考訳(メタデータ) (2022-05-17T14:00:58Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。