論文の概要: A Comparative Study of Image Disguising Methods for Confidential
Outsourced Learning
- arxiv url: http://arxiv.org/abs/2301.00252v1
- Date: Sat, 31 Dec 2022 16:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 16:05:44.489165
- Title: A Comparative Study of Image Disguising Methods for Confidential
Outsourced Learning
- Title(参考訳): 信頼的アウトソース学習のための画像探索手法の比較検討
- Authors: Sagar Sharma and Yuechun Gu and Keke Chen
- Abstract要約: InstaHide と DisguizedNets という新しいエンフィメージ・ディスガージング機構について検討・比較を行った。
DisguisedNetsは、画像ブロック化、ブロックレベルのランダムな置換、および2つのブロックレベルのセキュアな変換を組み合わせた新しい組み合わせである。
InstaHideは画像ミックスアップとランダムピクセルフリップ技術である。
マルチレベル脅威モデルを用いて解析および評価を行った。
- 参考スコア(独自算出の注目度): 5.73658856166614
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large training data and expensive model tweaking are standard features of
deep learning for images. As a result, data owners often utilize cloud
resources to develop large-scale complex models, which raises privacy concerns.
Existing solutions are either too expensive to be practical or do not
sufficiently protect the confidentiality of data and models. In this paper, we
study and compare novel \emph{image disguising} mechanisms, DisguisedNets and
InstaHide, aiming to achieve a better trade-off among the level of protection
for outsourced DNN model training, the expenses, and the utility of data.
DisguisedNets are novel combinations of image blocktization, block-level random
permutation, and two block-level secure transformations: random
multidimensional projection (RMT) and AES pixel-level encryption (AES).
InstaHide is an image mixup and random pixel flipping technique \cite{huang20}.
We have analyzed and evaluated them under a multi-level threat model. RMT
provides a better security guarantee than InstaHide, under the Level-1
adversarial knowledge with well-preserved model quality. In contrast, AES
provides a security guarantee under the Level-2 adversarial knowledge, but it
may affect model quality more. The unique features of image disguising also
help us to protect models from model-targeted attacks. We have done an
extensive experimental evaluation to understand how these methods work in
different settings for different datasets.
- Abstract(参考訳): 大規模なトレーニングデータと高価なモデル調整は、画像のディープラーニングの標準的な特徴である。
その結果、データ所有者はしばしばクラウドリソースを使用して大規模な複雑なモデルを開発する。
既存のソリューションは実用的であるには高価すぎるか、データやモデルの機密性を十分に保護していない。
本稿では,DNNモデルトレーニングのアウトソーシング,費用,データの有用性の保護レベルにおいて,より優れたトレードオフを実現することを目的とした,新しい 'emph{image disguising} メカニズムである DisguizedNets と InstaHide を比較し,比較する。
DisguisedNetsは、画像ブロック化、ブロックレベルのランダムな置換、およびランダム多次元投影(RMT)とAESピクセルレベルの暗号化(AES)という2つのブロックレベルのセキュアな変換の組み合わせである。
InstaHideは画像ミックスアップとランダムピクセルフリップのテクニックである。
マルチレベル脅威モデルを用いて解析および評価を行った。
RMTは、よく保存されたモデル品質を持つレベル1の敵の知識の下で、InstaHideよりも優れたセキュリティ保証を提供する。
対照的に、AESはレベル2の敵の知識の下でセキュリティ保証を提供するが、モデルの品質にもっと影響を及ぼす可能性がある。
イメージディグライジングのユニークな特徴は、モデルがターゲットとする攻撃からモデルを保護するのにも役立ちます。
我々は、これらのメソッドが異なるデータセットの異なる設定でどのように機能するかを理解するために、広範囲な実験的評価を行った。
関連論文リスト
- PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning [2.0507547735926424]
分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T08:32:29Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Minimum Noticeable Difference based Adversarial Privacy Preserving Image
Generation [44.2692621807947]
クリーンなものと最小限の知覚差を持つが、ディープラーニングモデルに攻撃できる敵対的プライバシ保護画像を生成するためのフレームワークを開発する。
我々の知る限りでは、これはプライバシー保護のためのMND概念に基づく品質保護の敵画像生成を探求する最初の試みである。
論文 参考訳(メタデータ) (2022-06-17T09:02:12Z) - Membership Privacy Protection for Image Translation Models via
Adversarial Knowledge Distillation [60.20442796180881]
画像から画像への変換モデルは、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,画像から画像への変換モデルに対するMIAに対する防御手法として,逆知識蒸留(AKD)を提案する。
画像から画像への変換モデルの実験を行い、AKDが最先端のユーティリティ・プライバシトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2022-03-10T07:44:18Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Trade-offs between membership privacy & adversarially robust learning [13.37805637358556]
標準モデルがロバストモデルよりもはるかに過度に適合する設定を特定します。
オーバーフィッティングの度合いは、トレーニングに利用可能なデータの量に依存する。
論文 参考訳(メタデータ) (2020-06-08T14:20:12Z) - Large-Scale Secure XGB for Vertical Federated Learning [15.864654742542246]
本稿では,縦型学習環境下での大規模セキュアなXGBの構築を目的とする。
我々は、トレーニング中に中間情報が漏洩することを避けるために、セキュアなマルチパーティ計算技術を採用している。
セキュアな置換プロトコルを提案することで、トレーニング効率を改善し、フレームワークを大規模なデータセットにスケールすることが可能になります。
論文 参考訳(メタデータ) (2020-05-18T06:31:10Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。