論文の概要: Security Analysis of Thumbnail-Preserving Image Encryption and a New Framework
- arxiv url: http://arxiv.org/abs/2504.06083v1
- Date: Tue, 08 Apr 2025 14:24:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:28:00.411624
- Title: Security Analysis of Thumbnail-Preserving Image Encryption and a New Framework
- Title(参考訳): Thumbnail保存画像暗号化のセキュリティ解析と新しいフレームワーク
- Authors: Dong Xie, Zhiyang Li, Shuangxi Guo, Fulong Chen, Peng Hu,
- Abstract要約: 多要素サムネイル保存暗号(MFTPE)と呼ばれる新しいTPEフレームワークを提案する。
2ブロックの衝突確率から始まり、2つの画像の確率に、そして最終的にNの画像に拡張する。
提案したMFTPEはサムネイルの確率を低減し、強靭性を示し、顔検出や雑音攻撃に効果的に抵抗する。
- 参考スコア(独自算出の注目度): 7.8160740672071025
- License:
- Abstract: As a primary encryption primitive balancing the privacy and searchability of cloud storage images, thumbnail preserving encryption (TPE) enables users to quickly identify the privacy personal image on the cloud and request this image from the owner through a secure channel. In this paper, we have found that two different plaintext images may produce the same thumbnail. It results in the failure of search strategy because the collision of thumbnail occurs. To address this serious security issues, we conduct an in-depth analysis on the collision probabilities of thumbnails, and then propose a new TPE framework, called multi-factor thumbnail preserving encryption (MFTPE). It starts from the collision probability of two blocks, extend to the probabilities of two images and ultimately to N images. Then, we in detail describe three specific MFTPE constructions preserving different combinations of factors, i.e., the sum and the geometric mean, the sum and the range, and the sum and the weighted mean. The theoretical and experimental results demonstrate that the proposed MFTPE reduces the probability of thumbnails, exhibits strong robustness, and also effectively resists face detection and noise attacks.
- Abstract(参考訳): クラウドストレージイメージのプライバシと検索性のバランスをとる主要な暗号化プリミティブとして、サムネイル保存暗号化(TPE)により、ユーザはクラウド上のプライバシのパーソナルイメージを迅速に識別し、このイメージを所有者からセキュアなチャネルを通じて要求することができる。
本稿では,2つの異なる平文画像が同じサムネイルを生成することを発見した。
サムネイルの衝突が原因で探索戦略が失敗する。
この深刻なセキュリティ問題に対処するため,サムネイルの衝突確率を詳細に分析し,マルチファクタサムネイル保存暗号化(MFTPE)と呼ばれる新しいTPEフレームワークを提案する。
2ブロックの衝突確率から始まり、2つの画像の確率に、そして最終的にNの画像に拡張する。
次に,因子の組合せ,すなわち和と幾何平均,和と範囲,和と重み付き平均の3つの特定のMFTPE構造を詳細に記述する。
理論的および実験的結果は,提案したMFTPEがサムネイルの確率を低減し,強靭性を示し,顔検出や雑音攻撃に効果的に抵抗することを示した。
関連論文リスト
- Adversarially Robust CLIP Models Can Induce Better (Robust) Perceptual Metrics [42.379680603462155]
本稿では, 対角的頑健なCLIPモデルにより, より良く, 対角的に頑健な知覚基準が導出されることを示す。
我々の知覚基準は、堅牢な画像・画像検索などの関連タスクにおいて高い性能を達成する。
我々の頑健な知覚距離は、非摂動画像に類似した性能を保ちながら、攻撃下で高い精度を維持している。
論文 参考訳(メタデータ) (2025-02-17T12:11:01Z) - Multimodal Unlearnable Examples: Protecting Data against Multimodal Contrastive Learning [53.766434746801366]
マルチモーダル・コントラッシブ・ラーニング (MCL) は、インターネットから何百万ものイメージ・キャプション・ペアから学習することで、ゼロショット分類において顕著な進歩を見せている。
ハッカーは、個人やプライバシーに敏感な情報を含む、モデルトレーニングのために画像テキストデータを不正に活用する可能性がある。
近年の研究では、保護のためのショートカットを構築するための訓練画像に知覚不能な摂動を加えることで、学習不可能な例を生成することを提案する。
マルチステップ誤り最小化(MEM)を提案する。
論文 参考訳(メタデータ) (2024-07-23T09:00:52Z) - Deep Learning and Chaos: A combined Approach To Image Encryption and Decryption [1.8749305679160366]
本稿では,新しい3次元ハイパーカオスマップ,2次元メムリスタマップ,畳み込みニューラルネットワーク(CNN)からのハイパーカオス信号を用いた新しい画像暗号化と復号化アルゴリズムを提案する。
暗号アルゴリズムのロバスト性は、キー感度分析(キー要素に対するアルゴリズムの平均感度)によって示される。
論文 参考訳(メタデータ) (2024-06-24T16:56:22Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - EViT: Privacy-Preserving Image Retrieval via Encrypted Vision
Transformer in Cloud Computing [9.41257807502252]
本稿では,暗号化ビジョン変換器(EViT)という新しいパラダイムを提案する。
EViTは、画像のプライバシーを効果的に保護しつつ、大きなマージンによる検索精度において、現在のスキームよりも優れた暗号化と検索性能を実現する。
論文 参考訳(メタデータ) (2022-08-31T07:07:21Z) - InstaHide: Instance-hiding Schemes for Private Distributed Learning [45.26955355159282]
InstaHideは、既存の分散ディープラーニングパイプラインにプラグイン可能な、トレーニングイメージの簡単な暗号化である。
InstaHideは、ランダムに選択された多数のイメージを混ぜた“ワンタイムシークレットキー”で、各トレーニングイメージを暗号化する。
論文 参考訳(メタデータ) (2020-10-06T14:43:23Z) - Compact Deep Aggregation for Set Retrieval [87.52470995031997]
画像の大規模データセットから複数の顔を含む画像を取得することに焦点を当てる。
ここでは、セットは各画像の顔記述子で構成され、複数のIDに対するクエリが与えられた後、すべてのIDを含む画像を取得することが目標である。
このコンパクトディスクリプタは,画像毎に最大2面まで識別性の低下が最小限に抑えられ,その後徐々に劣化することを示す。
論文 参考訳(メタデータ) (2020-03-26T08:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。