論文の概要: Image and Model Transformation with Secret Key for Vision Transformer
- arxiv url: http://arxiv.org/abs/2207.05366v1
- Date: Tue, 12 Jul 2022 08:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 15:05:17.523224
- Title: Image and Model Transformation with Secret Key for Vision Transformer
- Title(参考訳): ビジョントランスのための秘密鍵を用いた画像とモデル変換
- Authors: Hitoshi Kiya, Ryota Iijima and MaungMaung Aprilpyone, and Yuma
Kinoshita
- Abstract要約: 普通の画像で訓練されたモデルを直接、暗号化された画像で訓練されたモデルに変換することができることを示す。
変換されたモデルの性能は、キーで暗号化されたテスト画像を使用する場合、平易なイメージで訓練されたモデルと同じである。
- 参考スコア(独自算出の注目度): 16.055655429920993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a combined use of transformed images and vision
transformer (ViT) models transformed with a secret key. We show for the first
time that models trained with plain images can be directly transformed to
models trained with encrypted images on the basis of the ViT architecture, and
the performance of the transformed models is the same as models trained with
plain images when using test images encrypted with the key. In addition, the
proposed scheme does not require any specially prepared data for training
models or network modification, so it also allows us to easily update the
secret key. In an experiment, the effectiveness of the proposed scheme is
evaluated in terms of performance degradation and model protection performance
in an image classification task on the CIFAR-10 dataset.
- Abstract(参考訳): 本稿では,秘密鍵に変換された画像と視覚変換器(ViT)モデルの組み合わせを提案する。
ViTアーキテクチャに基づいて,平易な画像でトレーニングされたモデルを直接暗号化された画像でトレーニングしたモデルに変換することができ,キーで暗号化されたテスト画像を使用する場合,その変換されたモデルの性能は,平易な画像でトレーニングされたモデルと同じであることを示す。
また,提案手法ではトレーニングモデルやネットワーク修正のための特別なデータを必要としないため,秘密鍵の更新も容易である。
実験では、CIFAR-10データセット上の画像分類タスクにおける性能劣化とモデル保護性能の観点から、提案手法の有効性を評価する。
関連論文リスト
- Domain Adaptation for Efficiently Fine-tuning Vision Transformer with
Encrypted Images [6.476298483207895]
視覚変換器(ViT)を用いた変換画像を用いたファインチューニングモデルを提案する。
提案した領域適応法はモデルの劣化精度を損なわず,ViTの埋め込み構造に基づいて実施する。
実験では,CIFAR-10とCIFAR-100データセットを用いた暗号化画像を用いても,精度の低下を防止できることを確認した。
論文 参考訳(メタデータ) (2023-09-05T19:45:27Z) - Patch Is Not All You Need [57.290256181083016]
本稿では,画像の変換を適応的に変換する新しいパターン変換器を提案する。
我々は畳み込みニューラルネットワークを用いて入力画像から様々なパターンを抽出する。
我々は,CIFAR-10とCIFAR-100で最先端のパフォーマンスを達成し,ImageNet上での競合的な結果を得た。
論文 参考訳(メタデータ) (2023-08-21T13:54:00Z) - An Encryption Method of ConvMixer Models without Performance Degradation [14.505867475659276]
本稿では秘密鍵を用いたConvMixerモデルの暗号化手法を提案する。
本手法の有効性を,分類精度とモデル保護の観点から評価した。
論文 参考訳(メタデータ) (2022-07-25T07:09:16Z) - Plug-In Inversion: Model-Agnostic Inversion for Vision with Data
Augmentations [61.95114821573875]
単純な拡張セットに依存し、過剰なハイパーパラメータチューニングを必要としないPlug-In Inversionを導入する。
ImageNetデータセットでトレーニングされたビジョントランスフォーマー(ViT)とマルチ層パーセプトロン(MLP)を反転させることにより,我々のアプローチの実用性を説明する。
論文 参考訳(メタデータ) (2022-01-31T02:12:45Z) - Towards a Unified Foundation Model: Jointly Pre-Training Transformers on
Unpaired Images and Text [93.11954811297652]
我々は、モダリティ固有のトークン化器、共有トランスフォーマーエンコーダ、タスク固有の出力ヘッドからなる統一型トランスフォーマーを設計する。
我々は、個別に訓練されたBERTモデルとViTモデルを教師として採用し、知識蒸留を適用して、より正確な監視信号を提供する。
実験の結果、統合基盤変換器は視覚のみのタスクとテキストのみのタスクの両方で驚くほどうまく機能することがわかった。
論文 参考訳(メタデータ) (2021-12-14T00:20:55Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - Pre-Trained Image Processing Transformer [95.93031793337613]
我々は、新しい事前学習モデル、すなわち、画像処理変換器(IPT)を開発する。
本稿では、よく知られたImageNetベンチマークを用いて、大量の画像ペアを生成する。
IPTモデルは、これらの画像をマルチヘッドとマルチテールでトレーニングする。
論文 参考訳(メタデータ) (2020-12-01T09:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。