論文の概要: Only My Model On My Data: A Privacy Preserving Approach Protecting one
Model and Deceiving Unauthorized Black-Box Models
- arxiv url: http://arxiv.org/abs/2402.09316v1
- Date: Wed, 14 Feb 2024 17:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:17:37.727629
- Title: Only My Model On My Data: A Privacy Preserving Approach Protecting one
Model and Deceiving Unauthorized Black-Box Models
- Title(参考訳): 私のデータ上の私のモデルのみ:1つのモデルを保護し、不正なブラックボックスモデルを欺くプライバシー保護アプローチ
- Authors: Weiheng Chai, Brian Testa, Huantao Ren, Asif Salekin, Senem
Velipasalar
- Abstract要約: 本研究では、認証されたモデルによる正確な推論を維持する人間認識可能な画像を生成することにより、未調査の実用的プライバシー保護ユースケースに取り組む。
その結果、生成した画像は、保護されたモデルの精度を維持し、認証されていないブラックボックスモデルの平均精度を、ImageNet、Celeba-HQ、AffectNetのデータセットでそれぞれ11.97%、6.63%、55.51%に下げることができた。
- 参考スコア(独自算出の注目度): 11.59117790048892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are extensively applied to real-world tasks, such as
face recognition and medical image classification, where privacy and data
protection are critical. Image data, if not protected, can be exploited to
infer personal or contextual information. Existing privacy preservation
methods, like encryption, generate perturbed images that are unrecognizable to
even humans. Adversarial attack approaches prohibit automated inference even
for authorized stakeholders, limiting practical incentives for commercial and
widespread adaptation. This pioneering study tackles an unexplored practical
privacy preservation use case by generating human-perceivable images that
maintain accurate inference by an authorized model while evading other
unauthorized black-box models of similar or dissimilar objectives, and
addresses the previous research gaps. The datasets employed are ImageNet, for
image classification, Celeba-HQ dataset, for identity classification, and
AffectNet, for emotion classification. Our results show that the generated
images can successfully maintain the accuracy of a protected model and degrade
the average accuracy of the unauthorized black-box models to 11.97%, 6.63%, and
55.51% on ImageNet, Celeba-HQ, and AffectNet datasets, respectively.
- Abstract(参考訳): ディープニューラルネットワークは、プライバシとデータ保護が重要である顔認識や医療画像分類といった現実世界のタスクに広く適用されている。
画像データは保護されていない場合、個人情報や文脈情報を推測するために利用することができる。
暗号化のような既存のプライバシー保護手法は、人間にも認識できない乱雑な画像を生成する。
敵対的攻撃アプローチは、認可された利害関係者に対しても自動推論を禁止し、商業的かつ広く適応するための実用的なインセンティブを制限する。
この先駆的な研究は、承認されたモデルによる正確な推論を維持しつつ、類似または異なる目的の他の許可されていないブラックボックスモデルを回避し、以前の研究ギャップに対処することによって、探索されていない実用的なプライバシー保護ユースケースに取り組む。
使用されるデータセットはイメージ分類用のImageNet、アイデンティティ分類用のCeleba-HQデータセット、感情分類用のAffectNetである。
その結果、生成された画像は保護されたモデルの精度を維持し、不正なブラックボックスモデルの平均精度を、imagenet, celeba-hq, affectnetデータセット上でそれぞれ11.97%, 6.63%, 55.51%に低下させることができた。
関連論文リスト
- Can Protective Perturbation Safeguard Personal Data from Being Exploited
by Stable Diffusion? [12.117681479929288]
元の画像構造を保ちながら保護された摂動を除去できる浄化方法を提案する。
実験により、安定拡散は、すべての保護方法において、精製された画像から効果的に学習できることが判明した。
論文 参考訳(メタデータ) (2023-11-30T07:17:43Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion
Models [85.52369122266549]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Unlearnable Examples for Diffusion Models: Protect Data from
Unauthorized Exploitation [20.47099939773165]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training [50.308254937851814]
個人データ(画像など)は、許可なくディープニューラルネットワークモデルをトレーニングするために不適切に利用することができる。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、ニューラルモデルはそのようなシグネチャでインプリントされる。
これは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業である。
論文 参考訳(メタデータ) (2021-09-18T22:10:37Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。