論文の概要: Combined Use of Federated Learning and Image Encryption for
Privacy-Preserving Image Classification with Vision Transformer
- arxiv url: http://arxiv.org/abs/2301.09255v1
- Date: Mon, 23 Jan 2023 03:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 14:09:03.661171
- Title: Combined Use of Federated Learning and Image Encryption for
Privacy-Preserving Image Classification with Vision Transformer
- Title(参考訳): 視覚変換器を用いたプライバシー保護画像分類におけるフェデレーション学習と画像暗号化の併用
- Authors: Teru Nagamori and Hitoshi Kiya
- Abstract要約: 視覚変換器(ViT)を用いたプライバシー保護画像分類のためのFLと暗号化画像の組み合わせを提案する。
実験では,CIFAR-10およびCIFAR-100データセットの性能劣化を伴わずに,本手法をうまく動作させることが実証された。
- 参考スコア(独自算出の注目度): 14.505867475659276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, privacy-preserving methods for deep learning have become an
urgent problem. Accordingly, we propose the combined use of federated learning
(FL) and encrypted images for privacy-preserving image classification under the
use of the vision transformer (ViT). The proposed method allows us not only to
train models over multiple participants without directly sharing their raw data
but to also protect the privacy of test (query) images for the first time. In
addition, it can also maintain the same accuracy as normally trained models. In
an experiment, the proposed method was demonstrated to well work without any
performance degradation on the CIFAR-10 and CIFAR-100 datasets.
- Abstract(参考訳): 近年,ディープラーニングのためのプライバシー保護手法が緊急問題となっている。
そこで本研究では,視覚トランスフォーマ(vit)を用いたプライバシー保護画像分類のためのフェデレーション学習(fl)と暗号化画像の併用を提案する。
提案手法では,複数の参加者に対して生データを直接共有することなくモデルをトレーニングできるだけでなく,テスト画像のプライバシ(クエリ)を初めて保護できる。
さらに、通常訓練されたモデルと同じ精度を維持することもできる。
実験では,CIFAR-10およびCIFAR-100データセットの性能劣化を伴わずに,良好な動作が得られた。
関連論文リスト
- I can't see it but I can Fine-tune it: On Encrypted Fine-tuning of
Transformers using Fully Homomorphic Encryption [5.12893315783096]
BlindTunerは、画像分類のための同型暗号化データのみを対象としたトランスフォーマートレーニングを可能にする、プライバシー保護のための微調整システムである。
以上の結果から,従来よりも1.5倍から600倍の速度向上が見られた。
論文 参考訳(メタデータ) (2024-02-14T10:15:43Z) - Efficient Fine-Tuning with Domain Adaptation for Privacy-Preserving
Vision Transformer [6.476298483207895]
視覚変換器(ViT)を用いたプライバシー保護型ディープニューラルネットワーク(DNN)の新しい手法を提案する。
本手法では, モデルトレーニングや視覚的に保護された画像によるテストだけでなく, 暗号化画像の使用による性能劣化を回避できる。
ドメイン適応法は、暗号化された画像でViTを効率よく微調整するために用いられる。
論文 参考訳(メタデータ) (2024-01-10T12:46:31Z) - Masked Autoencoders are Efficient Class Incremental Learners [64.90846899051164]
クラスインクリメンタルラーニング(CIL)は,過去の知識の破滅的な忘れを回避しつつ,新しいクラスを逐次学習することを目的としている。
本稿では,CIL の学習に Masked Autoencoders (MAEs) を用いることを提案する。
論文 参考訳(メタデータ) (2023-08-24T02:49:30Z) - Learning Differentially Private Probabilistic Models for
Privacy-Preserving Image Generation [67.47979276739144]
差分プライバシー保証付き高解像度画像を生成するために,差分プライベート確率モデルの学習を提案する。
我々のアプローチは、目立った視覚的品質とデータユーティリティで256x256までの画像を生成することができる。
論文 参考訳(メタデータ) (2023-05-18T02:51:17Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Privacy-Preserving Image Classification Using Vision Transformer [16.679394807198]
暗号化画像と視覚変換器(ViT)を組み合わせたプライバシー保護画像分類手法を提案する。
ViTは画像パッチにパッチ埋め込みと位置埋め込みを利用するため、このアーキテクチャはブロックワイド画像変換の影響を低減することができる。
実験では,様々な攻撃に対する分類精度とロバスト性の観点から,プライバシー保護画像分類の手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T12:51:48Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy-Preserving Image Classification Using Isotropic Network [14.505867475659276]
本稿では,暗号化画像と視覚変換器などの等方性ネットワークを用いたプライバシー保護画像分類手法を提案する。
提案手法では,深層ニューラルネットワーク(DNN)に視覚情報のない画像を適用するだけでなく,高い分類精度を維持することができる。
論文 参考訳(メタデータ) (2022-04-16T03:15:54Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - PASS: An ImageNet replacement for self-supervised pretraining without
humans [152.3252728876108]
本稿では,自己スーパービジョンのためのHumAnsを含まないPASS:Picturesを提案する。
PASSは、CC-BYライセンスのイメージと、著作権問題に対処する完全な属性メタデータのみを含む。
PASS は MoCo-v2, SwAV, DINO などの手法で事前訓練できることを示す。
PASSは、例えばベンチマークに不十分なため、既存のデータセットを陳腐化しない。しかしながら、より安全なデータを使用して、モデル事前トレーニングがしばしば可能であることを示し、事前トレーニングメソッドをより堅牢に評価する基盤を提供する。
論文 参考訳(メタデータ) (2021-09-27T17:59:39Z) - A Lightweight Privacy-Preserving Scheme Using Label-based Pixel Block
Mixing for Image Classification in Deep Learning [37.33528407329338]
トレーニングセットの可用性を維持しつつ、画像のプライバシを保護するための軽量で効率的なアプローチを提案する。
WIKIデータセットとCNBCfaceデータセット上でResNet50、VGG16、InceptionV3、DenseNet121モデルをトレーニングするために、混合トレーニングセットを使用します。
論文 参考訳(メタデータ) (2021-05-19T01:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。