論文の概要: Efficient Fine-Tuning with Domain Adaptation for Privacy-Preserving
Vision Transformer
- arxiv url: http://arxiv.org/abs/2401.05126v2
- Date: Fri, 9 Feb 2024 09:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:41:42.174507
- Title: Efficient Fine-Tuning with Domain Adaptation for Privacy-Preserving
Vision Transformer
- Title(参考訳): プライバシー保護型視覚変換器のドメイン適応によるファインチューニング
- Authors: Teru Nagamori, Sayaka Shiota, Hitoshi Kiya
- Abstract要約: 視覚変換器(ViT)を用いたプライバシー保護型ディープニューラルネットワーク(DNN)の新しい手法を提案する。
本手法では, モデルトレーニングや視覚的に保護された画像によるテストだけでなく, 暗号化画像の使用による性能劣化を回避できる。
ドメイン適応法は、暗号化された画像でViTを効率よく微調整するために用いられる。
- 参考スコア(独自算出の注目度): 6.476298483207895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel method for privacy-preserving deep neural networks (DNNs)
with the Vision Transformer (ViT). The method allows us not only to train
models and test with visually protected images but to also avoid the
performance degradation caused from the use of encrypted images, whereas
conventional methods cannot avoid the influence of image encryption. A domain
adaptation method is used to efficiently fine-tune ViT with encrypted images.
In experiments, the method is demonstrated to outperform conventional methods
in an image classification task on the CIFAR-10 and ImageNet datasets in terms
of classification accuracy.
- Abstract(参考訳): 視覚変換器(ViT)を用いたプライバシー保護型ディープニューラルネットワーク(DNN)を提案する。
本手法は,視覚的に保護された画像を用いてモデルのトレーニングやテストを行うだけでなく,暗号化画像の使用による性能低下を回避できるが,従来の手法では画像暗号化の影響を回避できない。
ドメイン適応法は、暗号化された画像でViTを効率的に微調整する。
実験では,CIFAR-10 と ImageNet データセットにおける画像分類タスクにおいて,分類精度の観点から従来の手法より優れていることを示す。
関連論文リスト
- Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Domain Adaptation for Efficiently Fine-tuning Vision Transformer with
Encrypted Images [6.476298483207895]
視覚変換器(ViT)を用いた変換画像を用いたファインチューニングモデルを提案する。
提案した領域適応法はモデルの劣化精度を損なわず,ViTの埋め込み構造に基づいて実施する。
実験では,CIFAR-10とCIFAR-100データセットを用いた暗号化画像を用いても,精度の低下を防止できることを確認した。
論文 参考訳(メタデータ) (2023-09-05T19:45:27Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Combined Use of Federated Learning and Image Encryption for
Privacy-Preserving Image Classification with Vision Transformer [14.505867475659276]
視覚変換器(ViT)を用いたプライバシー保護画像分類のためのFLと暗号化画像の組み合わせを提案する。
実験では,CIFAR-10およびCIFAR-100データセットの性能劣化を伴わずに,本手法をうまく動作させることが実証された。
論文 参考訳(メタデータ) (2023-01-23T03:41:02Z) - Privacy-Preserving Image Classification Using Vision Transformer [16.679394807198]
暗号化画像と視覚変換器(ViT)を組み合わせたプライバシー保護画像分類手法を提案する。
ViTは画像パッチにパッチ埋め込みと位置埋め込みを利用するため、このアーキテクチャはブロックワイド画像変換の影響を低減することができる。
実験では,様々な攻撃に対する分類精度とロバスト性の観点から,プライバシー保護画像分類の手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T12:51:48Z) - Privacy-Preserving Image Classification Using Isotropic Network [14.505867475659276]
本稿では,暗号化画像と視覚変換器などの等方性ネットワークを用いたプライバシー保護画像分類手法を提案する。
提案手法では,深層ニューラルネットワーク(DNN)に視覚情報のない画像を適用するだけでなく,高い分類精度を維持することができる。
論文 参考訳(メタデータ) (2022-04-16T03:15:54Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Image Transformation Network for Privacy-Preserving Deep Neural Networks
and Its Security Evaluation [17.134566958534634]
プライバシー保護DNNのための画像生成のための変換ネットワークを提案する。
提案するネットワークは,視覚情報を強く保護するだけでなく,画像を用いた画像分類精度の維持にも有効である。
論文 参考訳(メタデータ) (2020-08-07T12:58:45Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。