論文の概要: An Encryption Method of ConvMixer Models without Performance Degradation
- arxiv url: http://arxiv.org/abs/2207.11939v1
- Date: Mon, 25 Jul 2022 07:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:42:10.890723
- Title: An Encryption Method of ConvMixer Models without Performance Degradation
- Title(参考訳): 性能劣化のないConvMixerモデルの暗号化法
- Authors: Ryota Iijima and Hitoshi Kiya
- Abstract要約: 本稿では秘密鍵を用いたConvMixerモデルの暗号化手法を提案する。
本手法の有効性を,分類精度とモデル保護の観点から評価した。
- 参考スコア(独自算出の注目度): 14.505867475659276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an encryption method for ConvMixer models with a
secret key. Encryption methods for DNN models have been studied to achieve
adversarial defense, model protection and privacy-preserving image
classification. However, the use of conventional encryption methods degrades
the performance of models compared with that of plain models. Accordingly, we
propose a novel method for encrypting ConvMixer models. The method is carried
out on the basis of an embedding architecture that ConvMixer has, and models
encrypted with the method can have the same performance as models trained with
plain images only when using test images encrypted with a secret key. In
addition, the proposed method does not require any specially prepared data for
model training or network modification. In an experiment, the effectiveness of
the proposed method is evaluated in terms of classification accuracy and model
protection in an image classification task on the CIFAR10 dataset.
- Abstract(参考訳): 本論文では,秘密鍵を用いたConvMixerモデルの暗号化手法を提案する。
DNNモデルの暗号化手法は, 敵防御, モデル保護, プライバシ保護画像分類を実現するために研究されている。
しかし,従来の暗号手法では,モデルの性能が平易なモデルと比較して低下している。
そこで本研究では,ConvMixerモデルの暗号化手法を提案する。
本手法は,ConvMixerが持つ埋め込みアーキテクチャに基づいて実施され,秘密鍵で暗号化されたテスト画像を使用する場合にのみ,平易な画像で訓練されたモデルと同じ性能が得られる。
また,提案手法では,モデルトレーニングやネットワーク修正のための特別なデータを必要としない。
実験では,CIFAR10データセット上の画像分類タスクにおいて,分類精度とモデル保護の観点から,提案手法の有効性を評価する。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - A Privacy Preserving Method with a Random Orthogonal Matrix for
ConvMixer Models [13.653940190782146]
ConvMixerモデルを用いて,プライバシ保護画像分類手法を提案する。
提案手法では,プライバシ保護を考慮せずに,ConvMixerモデルと同じ分類精度を利用できる。
論文 参考訳(メタデータ) (2023-01-10T08:21:19Z) - Image and Model Transformation with Secret Key for Vision Transformer [16.055655429920993]
普通の画像で訓練されたモデルを直接、暗号化された画像で訓練されたモデルに変換することができることを示す。
変換されたモデルの性能は、キーで暗号化されたテスト画像を使用する場合、平易なイメージで訓練されたモデルと同じである。
論文 参考訳(メタデータ) (2022-07-12T08:02:47Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Transfer Learning-Based Model Protection With Secret Key [15.483078145498085]
トレーニングを受けたモデルを秘密鍵で保護する新しい方法を提案する。
ImageNetデータセットを用いた実験では、保護されたモデルのパフォーマンスが、正しいキーが与えられたときに保護されていないモデルに近いことが示された。
論文 参考訳(メタデータ) (2021-03-05T08:12:11Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。