論文の概要: Image Transformation Network for Privacy-Preserving Deep Neural Networks
and Its Security Evaluation
- arxiv url: http://arxiv.org/abs/2008.03143v1
- Date: Fri, 7 Aug 2020 12:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 01:11:25.736379
- Title: Image Transformation Network for Privacy-Preserving Deep Neural Networks
and Its Security Evaluation
- Title(参考訳): プライバシー保護型ディープニューラルネットワークのための画像変換ネットワークとそのセキュリティ評価
- Authors: Hiroki Ito, Yuma Kinoshita, Hitoshi Kiya
- Abstract要約: プライバシー保護DNNのための画像生成のための変換ネットワークを提案する。
提案するネットワークは,視覚情報を強く保護するだけでなく,画像を用いた画像分類精度の維持にも有効である。
- 参考スコア(独自算出の注目度): 17.134566958534634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a transformation network for generating visually-protected images
for privacy-preserving DNNs. The proposed transformation network is trained by
using a plain image dataset so that plain images are transformed into visually
protected ones. Conventional perceptual encryption methods have a weak
visual-protection performance and some accuracy degradation in image
classification. In contrast, the proposed network enables us not only to
strongly protect visual information but also to maintain the image
classification accuracy that using plain images achieves. In an image
classification experiment, the proposed network is demonstrated to strongly
protect visual information on plain images without any performance degradation
under the use of CIFAR datasets. In addition, it is shown that the visually
protected images are robust against a DNN-based attack, called inverse
transformation network attack (ITN-Attack) in an experiment.
- Abstract(参考訳): プライバシー保護DNNのための画像生成のための変換ネットワークを提案する。
提案するトランスフォーメーションネットワークは、プレーンイメージデータセットを使用して、プレーンイメージを視覚的に保護されたものに変換する。
従来の知覚暗号法では視覚保護性能が弱く、画像分類の精度が低下する。
対照的に,提案するネットワークでは,視覚情報を強く保護するだけでなく,平滑な画像を用いた画像分類精度を維持できる。
画像分類実験において,提案したネットワークは,CIFARデータセットによる性能劣化を伴わずに,画像上の視覚情報を強く保護することを示した。
さらに、視覚的に保護された画像は、実験において逆変換ネットワーク攻撃(ITN-Attack)と呼ばれるDNNベースの攻撃に対して堅牢であることを示す。
関連論文リスト
- Can Encrypted Images Still Train Neural Networks? Investigating Image Information and Random Vortex Transformation [51.475827684468875]
画像変換時の情報内容の変化を評価するために,画像情報量を測定する新しい枠組みを構築した。
また,Random Vortex Transformationと呼ばれる新しい画像暗号化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-25T09:14:53Z) - Attack GAN (AGAN ): A new Security Evaluation Tool for Perceptual Encryption [1.6385815610837167]
最先端(SOTA)ディープラーニングモデルのトレーニングには大量のデータが必要である。
知覚暗号化は、イメージを認識不能なフォーマットに変換して、トレーニングデータ内のセンシティブな視覚情報を保護する。
これは、モデルの精度を大幅に下げるコストが伴う。
Adversarial Visual Information Hiding (AVIH)は、人間の目には認識できない暗号化された画像を作成することによって、画像のプライバシを保護するために、この欠点を克服する。
論文 参考訳(メタデータ) (2024-07-09T06:03:32Z) - Efficient Fine-Tuning with Domain Adaptation for Privacy-Preserving
Vision Transformer [6.476298483207895]
視覚変換器(ViT)を用いたプライバシー保護型ディープニューラルネットワーク(DNN)の新しい手法を提案する。
本手法では, モデルトレーニングや視覚的に保護された画像によるテストだけでなく, 暗号化画像の使用による性能劣化を回避できる。
ドメイン適応法は、暗号化された画像でViTを効率よく微調整するために用いられる。
論文 参考訳(メタデータ) (2024-01-10T12:46:31Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Privacy-Preserving Image Classification Using Vision Transformer [16.679394807198]
暗号化画像と視覚変換器(ViT)を組み合わせたプライバシー保護画像分類手法を提案する。
ViTは画像パッチにパッチ埋め込みと位置埋め込みを利用するため、このアーキテクチャはブロックワイド画像変換の影響を低減することができる。
実験では,様々な攻撃に対する分類精度とロバスト性の観点から,プライバシー保護画像分類の手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T12:51:48Z) - Privacy-Preserving Image Classification Using Isotropic Network [14.505867475659276]
本稿では,暗号化画像と視覚変換器などの等方性ネットワークを用いたプライバシー保護画像分類手法を提案する。
提案手法では,深層ニューラルネットワーク(DNN)に視覚情報のない画像を適用するだけでなく,高い分類精度を維持することができる。
論文 参考訳(メタデータ) (2022-04-16T03:15:54Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。