論文の概要: Only My Model On My Data: A Privacy Preserving Approach Protecting one
Model and Deceiving Unauthorized Black-Box Models
- arxiv url: http://arxiv.org/abs/2402.09316v1
- Date: Wed, 14 Feb 2024 17:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:17:37.727629
- Title: Only My Model On My Data: A Privacy Preserving Approach Protecting one
Model and Deceiving Unauthorized Black-Box Models
- Title(参考訳): 私のデータ上の私のモデルのみ:1つのモデルを保護し、不正なブラックボックスモデルを欺くプライバシー保護アプローチ
- Authors: Weiheng Chai, Brian Testa, Huantao Ren, Asif Salekin, Senem
Velipasalar
- Abstract要約: 本研究では、認証されたモデルによる正確な推論を維持する人間認識可能な画像を生成することにより、未調査の実用的プライバシー保護ユースケースに取り組む。
その結果、生成した画像は、保護されたモデルの精度を維持し、認証されていないブラックボックスモデルの平均精度を、ImageNet、Celeba-HQ、AffectNetのデータセットでそれぞれ11.97%、6.63%、55.51%に下げることができた。
- 参考スコア(独自算出の注目度): 11.59117790048892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are extensively applied to real-world tasks, such as
face recognition and medical image classification, where privacy and data
protection are critical. Image data, if not protected, can be exploited to
infer personal or contextual information. Existing privacy preservation
methods, like encryption, generate perturbed images that are unrecognizable to
even humans. Adversarial attack approaches prohibit automated inference even
for authorized stakeholders, limiting practical incentives for commercial and
widespread adaptation. This pioneering study tackles an unexplored practical
privacy preservation use case by generating human-perceivable images that
maintain accurate inference by an authorized model while evading other
unauthorized black-box models of similar or dissimilar objectives, and
addresses the previous research gaps. The datasets employed are ImageNet, for
image classification, Celeba-HQ dataset, for identity classification, and
AffectNet, for emotion classification. Our results show that the generated
images can successfully maintain the accuracy of a protected model and degrade
the average accuracy of the unauthorized black-box models to 11.97%, 6.63%, and
55.51% on ImageNet, Celeba-HQ, and AffectNet datasets, respectively.
- Abstract(参考訳): ディープニューラルネットワークは、プライバシとデータ保護が重要である顔認識や医療画像分類といった現実世界のタスクに広く適用されている。
画像データは保護されていない場合、個人情報や文脈情報を推測するために利用することができる。
暗号化のような既存のプライバシー保護手法は、人間にも認識できない乱雑な画像を生成する。
敵対的攻撃アプローチは、認可された利害関係者に対しても自動推論を禁止し、商業的かつ広く適応するための実用的なインセンティブを制限する。
この先駆的な研究は、承認されたモデルによる正確な推論を維持しつつ、類似または異なる目的の他の許可されていないブラックボックスモデルを回避し、以前の研究ギャップに対処することによって、探索されていない実用的なプライバシー保護ユースケースに取り組む。
使用されるデータセットはイメージ分類用のImageNet、アイデンティティ分類用のCeleba-HQデータセット、感情分類用のAffectNetである。
その結果、生成された画像は保護されたモデルの精度を維持し、不正なブラックボックスモデルの平均精度を、imagenet, celeba-hq, affectnetデータセット上でそれぞれ11.97%, 6.63%, 55.51%に低下させることができた。
関連論文リスト
- EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Explaining models relating objects and privacy [33.78605193864911]
画像から抽出したオブジェクトを用いて、なぜ画像がプライベートであると予測されるのかを判断するプライバシーモデルを評価する。
プライバシ決定の主要な要因は、個人カテゴリの存在と、その濃度であることを示す。
論文 参考訳(メタデータ) (2024-05-02T18:06:48Z) - Can Protective Perturbation Safeguard Personal Data from Being Exploited by Stable Diffusion? [21.75921532822961]
元の画像構造を保ちながら保護された摂動を除去できる浄化方法を提案する。
実験により、安定拡散は、すべての保護方法において、精製された画像から効果的に学習できることが判明した。
論文 参考訳(メタデータ) (2023-11-30T07:17:43Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。