論文の概要: A Comparative Study of Image Disguising Methods for Confidential
Outsourced Learning
- arxiv url: http://arxiv.org/abs/2301.00252v1
- Date: Sat, 31 Dec 2022 16:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 16:05:44.489165
- Title: A Comparative Study of Image Disguising Methods for Confidential
Outsourced Learning
- Title(参考訳): 信頼的アウトソース学習のための画像探索手法の比較検討
- Authors: Sagar Sharma and Yuechun Gu and Keke Chen
- Abstract要約: InstaHide と DisguizedNets という新しいエンフィメージ・ディスガージング機構について検討・比較を行った。
DisguisedNetsは、画像ブロック化、ブロックレベルのランダムな置換、および2つのブロックレベルのセキュアな変換を組み合わせた新しい組み合わせである。
InstaHideは画像ミックスアップとランダムピクセルフリップ技術である。
マルチレベル脅威モデルを用いて解析および評価を行った。
- 参考スコア(独自算出の注目度): 5.73658856166614
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large training data and expensive model tweaking are standard features of
deep learning for images. As a result, data owners often utilize cloud
resources to develop large-scale complex models, which raises privacy concerns.
Existing solutions are either too expensive to be practical or do not
sufficiently protect the confidentiality of data and models. In this paper, we
study and compare novel \emph{image disguising} mechanisms, DisguisedNets and
InstaHide, aiming to achieve a better trade-off among the level of protection
for outsourced DNN model training, the expenses, and the utility of data.
DisguisedNets are novel combinations of image blocktization, block-level random
permutation, and two block-level secure transformations: random
multidimensional projection (RMT) and AES pixel-level encryption (AES).
InstaHide is an image mixup and random pixel flipping technique \cite{huang20}.
We have analyzed and evaluated them under a multi-level threat model. RMT
provides a better security guarantee than InstaHide, under the Level-1
adversarial knowledge with well-preserved model quality. In contrast, AES
provides a security guarantee under the Level-2 adversarial knowledge, but it
may affect model quality more. The unique features of image disguising also
help us to protect models from model-targeted attacks. We have done an
extensive experimental evaluation to understand how these methods work in
different settings for different datasets.
- Abstract(参考訳): 大規模なトレーニングデータと高価なモデル調整は、画像のディープラーニングの標準的な特徴である。
その結果、データ所有者はしばしばクラウドリソースを使用して大規模な複雑なモデルを開発する。
既存のソリューションは実用的であるには高価すぎるか、データやモデルの機密性を十分に保護していない。
本稿では,DNNモデルトレーニングのアウトソーシング,費用,データの有用性の保護レベルにおいて,より優れたトレードオフを実現することを目的とした,新しい 'emph{image disguising} メカニズムである DisguizedNets と InstaHide を比較し,比較する。
DisguisedNetsは、画像ブロック化、ブロックレベルのランダムな置換、およびランダム多次元投影(RMT)とAESピクセルレベルの暗号化(AES)という2つのブロックレベルのセキュアな変換の組み合わせである。
InstaHideは画像ミックスアップとランダムピクセルフリップのテクニックである。
マルチレベル脅威モデルを用いて解析および評価を行った。
RMTは、よく保存されたモデル品質を持つレベル1の敵の知識の下で、InstaHideよりも優れたセキュリティ保証を提供する。
対照的に、AESはレベル2の敵の知識の下でセキュリティ保証を提供するが、モデルの品質にもっと影響を及ぼす可能性がある。
イメージディグライジングのユニークな特徴は、モデルがターゲットとする攻撃からモデルを保護するのにも役立ちます。
我々は、これらのメソッドが異なるデータセットの異なる設定でどのように機能するかを理解するために、広範囲な実験的評価を行った。
関連論文リスト
- AEIOU: A Unified Defense Framework against NSFW Prompts in Text-to-Image Models [39.11841245506388]
悪意のあるユーザは、しばしばテキスト・ツー・イメージ(T2I)モデルを使用してNot-Safe-for-Work(NSFW)イメージを生成する。
本稿では,T2IモデルにおけるNSFWプロンプトに対する適応性,効率性,解釈性,最適化性,統一性を備えたフレームワークであるAEIOUを紹介する。
論文 参考訳(メタデータ) (2024-12-24T03:17:45Z) - Elucidating Optimal Reward-Diversity Tradeoffs in Text-to-Image Diffusion Models [20.70550870149442]
Annealed Importance Guidance(AIG)は、Annealed Importance Smplingにインスパイアされた推論時正規化である。
安定拡散モデルに対するAIGの利点を実証し、報酬最適化と画像の多様性の最適なバランスを図った。
論文 参考訳(メタデータ) (2024-09-09T16:27:26Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Direct Unlearning Optimization for Robust and Safe Text-to-Image Models [29.866192834825572]
モデルが潜在的に有害なコンテンツを生成する能力を取り除くために、未学習の技術が開発されている。
これらの手法は敵の攻撃によって容易に回避され、生成した画像の安全性を確保するには信頼性が低い。
T2IモデルからNot Safe For Work(NSFW)コンテンツを除去するための新しいフレームワークであるDirect Unlearning Optimization (DUO)を提案する。
論文 参考訳(メタデータ) (2024-07-17T08:19:11Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Latent Diffusion Models for Attribute-Preserving Image Anonymization [4.080920304681247]
本稿では,遅延拡散モデル(LDM)に基づく画像匿名化への最初のアプローチを提案する。
CAFLaGE-Baseは、事前訓練された制御ネットと、実画像と匿名画像との距離を増やすために設計された新しい制御機構を組み合わせた2つのLCMを提案する。
論文 参考訳(メタデータ) (2024-03-21T19:09:21Z) - Minimum Noticeable Difference based Adversarial Privacy Preserving Image
Generation [44.2692621807947]
クリーンなものと最小限の知覚差を持つが、ディープラーニングモデルに攻撃できる敵対的プライバシ保護画像を生成するためのフレームワークを開発する。
我々の知る限りでは、これはプライバシー保護のためのMND概念に基づく品質保護の敵画像生成を探求する最初の試みである。
論文 参考訳(メタデータ) (2022-06-17T09:02:12Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。