論文の概要: A Lightweight Privacy-Preserving Scheme Using Label-based Pixel Block
Mixing for Image Classification in Deep Learning
- arxiv url: http://arxiv.org/abs/2105.08876v1
- Date: Wed, 19 May 2021 01:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:41:34.143561
- Title: A Lightweight Privacy-Preserving Scheme Using Label-based Pixel Block
Mixing for Image Classification in Deep Learning
- Title(参考訳): ディープラーニングにおける画像分類のためのラベルベース画素ブロック混合を用いた軽量プライバシー保護方式
- Authors: Yuexin Xiang, Tiantian Li, Wei Ren, Tianqing Zhu, Kim-Kwang Raymond
Choo
- Abstract要約: トレーニングセットの可用性を維持しつつ、画像のプライバシを保護するための軽量で効率的なアプローチを提案する。
WIKIデータセットとCNBCfaceデータセット上でResNet50、VGG16、InceptionV3、DenseNet121モデルをトレーニングするために、混合トレーニングセットを使用します。
- 参考スコア(独自算出の注目度): 37.33528407329338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure the privacy of sensitive data used in the training of deep learning
models, a number of privacy-preserving methods have been designed by the
research community. However, existing schemes are generally designed to work
with textual data, or are not efficient when a large number of images is used
for training. Hence, in this paper we propose a lightweight and efficient
approach to preserve image privacy while maintaining the availability of the
training set. Specifically, we design the pixel block mixing algorithm for
image classification privacy preservation in deep learning. To evaluate its
utility, we use the mixed training set to train the ResNet50, VGG16,
InceptionV3 and DenseNet121 models on the WIKI dataset and the CNBC face
dataset. Experimental findings on the testing set show that our scheme
preserves image privacy while maintaining the availability of the training set
in the deep learning models. Additionally, the experimental results demonstrate
that we achieve good performance for the VGG16 model on the WIKI dataset and
both ResNet50 and DenseNet121 on the CNBC dataset. The pixel block algorithm
achieves fairly high efficiency in the mixing of the images, and it is
computationally challenging for the attackers to restore the mixed training set
to the original training set. Moreover, data augmentation can be applied to the
mixed training set to improve the training's effectiveness.
- Abstract(参考訳): ディープラーニングモデルのトレーニングで使用される機密データのプライバシを確保するため、研究コミュニティによって多くのプライバシ保護手法が設計されている。
しかし、既存のスキームは一般的にテキストデータを扱うように設計されており、訓練に大量の画像を使用する場合、効率が良くない。
そこで本稿では,トレーニングセットの可用性を維持しつつ,画像のプライバシーを維持するための軽量かつ効率的なアプローチを提案する。
具体的には、ディープラーニングにおける画像分類プライバシー保護のための画素ブロック混合アルゴリズムを設計する。
その有用性を評価するために、混合トレーニングセットを使用して、WIKIデータセットとCNBCフェイスデータセット上でResNet50、VGG16、InceptionV3、DenseNet121モデルをトレーニングする。
実験結果から,本手法は深層学習モデルにおけるトレーニングセットの可用性を維持しつつ,画像のプライバシを保ったまま維持することを示す。
さらに,ウィキデータセットのvgg16モデルとcnbcデータセットのresnet50とdrknet121の両方において,優れた性能が得られることを示す実験結果を得た。
画素ブロックアルゴリズムは画像の混合においてかなり高い効率を実現しており、攻撃者が元のトレーニングセットに混合トレーニングセットを復元することは計算的に困難である。
さらに、データ拡張を混合トレーニングセットに適用することで、トレーニングの有効性を向上させることができる。
関連論文リスト
- Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - Effective pruning of web-scale datasets based on complexity of concept
clusters [48.125618324485195]
本稿では,大規模なマルチモーダルデータセットを抽出し,イメージネット上でCLIPスタイルのモデルを訓練する手法を提案する。
高品質なデータのより小さなセットでのトレーニングは、トレーニングコストを大幅に削減して、より高いパフォーマンスをもたらす可能性があることに気付きました。
我々は38の評価タスクにおいて、新しい最先端のImagehttps://info.arxiv.org/help/prep#commentsネットゼロショット精度と競合平均ゼロショット精度を実現する。
論文 参考訳(メタデータ) (2024-01-09T14:32:24Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Combined Use of Federated Learning and Image Encryption for
Privacy-Preserving Image Classification with Vision Transformer [14.505867475659276]
視覚変換器(ViT)を用いたプライバシー保護画像分類のためのFLと暗号化画像の組み合わせを提案する。
実験では,CIFAR-10およびCIFAR-100データセットの性能劣化を伴わずに,本手法をうまく動作させることが実証された。
論文 参考訳(メタデータ) (2023-01-23T03:41:02Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Learning Collision-Free Space Detection from Stereo Images: Homography
Matrix Brings Better Data Augmentation [16.99302954185652]
少数のトレーニングサンプルを使用して、深い畳み込みニューラルネットワーク(DCNN)を訓練することは、依然としてオープンな課題です。
本稿では,dcnnの性能向上に有効なトレーニングデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2020-12-14T19:14:35Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - Private Dataset Generation Using Privacy Preserving Collaborative
Learning [0.0]
この研究は、エッジで機械学習モデルをトレーニングするためのプライバシ保護のFedNNフレームワークを導入している。
MNISTデータセットを用いたシミュレーション結果は,フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-04-28T15:35:20Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。