論文の概要: Combined Use of Federated Learning and Image Encryption for
Privacy-Preserving Image Classification with Vision Transformer
- arxiv url: http://arxiv.org/abs/2301.09255v1
- Date: Mon, 23 Jan 2023 03:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 14:09:03.661171
- Title: Combined Use of Federated Learning and Image Encryption for
Privacy-Preserving Image Classification with Vision Transformer
- Title(参考訳): 視覚変換器を用いたプライバシー保護画像分類におけるフェデレーション学習と画像暗号化の併用
- Authors: Teru Nagamori and Hitoshi Kiya
- Abstract要約: 視覚変換器(ViT)を用いたプライバシー保護画像分類のためのFLと暗号化画像の組み合わせを提案する。
実験では,CIFAR-10およびCIFAR-100データセットの性能劣化を伴わずに,本手法をうまく動作させることが実証された。
- 参考スコア(独自算出の注目度): 14.505867475659276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, privacy-preserving methods for deep learning have become an
urgent problem. Accordingly, we propose the combined use of federated learning
(FL) and encrypted images for privacy-preserving image classification under the
use of the vision transformer (ViT). The proposed method allows us not only to
train models over multiple participants without directly sharing their raw data
but to also protect the privacy of test (query) images for the first time. In
addition, it can also maintain the same accuracy as normally trained models. In
an experiment, the proposed method was demonstrated to well work without any
performance degradation on the CIFAR-10 and CIFAR-100 datasets.
- Abstract(参考訳): 近年,ディープラーニングのためのプライバシー保護手法が緊急問題となっている。
そこで本研究では,視覚トランスフォーマ(vit)を用いたプライバシー保護画像分類のためのフェデレーション学習(fl)と暗号化画像の併用を提案する。
提案手法では,複数の参加者に対して生データを直接共有することなくモデルをトレーニングできるだけでなく,テスト画像のプライバシ(クエリ)を初めて保護できる。
さらに、通常訓練されたモデルと同じ精度を維持することもできる。
実験では,CIFAR-10およびCIFAR-100データセットの性能劣化を伴わずに,良好な動作が得られた。
関連論文リスト
- ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Privacy-Preserving Image Classification Using Vision Transformer [16.679394807198]
暗号化画像と視覚変換器(ViT)を組み合わせたプライバシー保護画像分類手法を提案する。
ViTは画像パッチにパッチ埋め込みと位置埋め込みを利用するため、このアーキテクチャはブロックワイド画像変換の影響を低減することができる。
実験では,様々な攻撃に対する分類精度とロバスト性の観点から,プライバシー保護画像分類の手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T12:51:48Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Introspective Deep Metric Learning [94.31804364707575]
本稿では,不確実性を考慮した画像比較のためのイントロスペクティブな深度学習フレームワークを提案する。
我々のフレームワークは、広く使われているCUB-200-2011、Cars196、Stanford Online Productsのデータセット上で、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-05-09T17:51:44Z) - Privacy-Preserving Image Classification Using Isotropic Network [14.505867475659276]
本稿では,暗号化画像と視覚変換器などの等方性ネットワークを用いたプライバシー保護画像分類手法を提案する。
提案手法では,深層ニューラルネットワーク(DNN)に視覚情報のない画像を適用するだけでなく,高い分類精度を維持することができる。
論文 参考訳(メタデータ) (2022-04-16T03:15:54Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - PASS: An ImageNet replacement for self-supervised pretraining without
humans [152.3252728876108]
本稿では,自己スーパービジョンのためのHumAnsを含まないPASS:Picturesを提案する。
PASSは、CC-BYライセンスのイメージと、著作権問題に対処する完全な属性メタデータのみを含む。
PASS は MoCo-v2, SwAV, DINO などの手法で事前訓練できることを示す。
PASSは、例えばベンチマークに不十分なため、既存のデータセットを陳腐化しない。しかしながら、より安全なデータを使用して、モデル事前トレーニングがしばしば可能であることを示し、事前トレーニングメソッドをより堅牢に評価する基盤を提供する。
論文 参考訳(メタデータ) (2021-09-27T17:59:39Z) - A Lightweight Privacy-Preserving Scheme Using Label-based Pixel Block
Mixing for Image Classification in Deep Learning [37.33528407329338]
トレーニングセットの可用性を維持しつつ、画像のプライバシを保護するための軽量で効率的なアプローチを提案する。
WIKIデータセットとCNBCfaceデータセット上でResNet50、VGG16、InceptionV3、DenseNet121モデルをトレーニングするために、混合トレーニングセットを使用します。
論文 参考訳(メタデータ) (2021-05-19T01:50:50Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。