論文の概要: FaceLeaks: Inference Attacks against Transfer Learning Models via
Black-box Queries
- arxiv url: http://arxiv.org/abs/2010.14023v1
- Date: Tue, 27 Oct 2020 03:02:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:38:34.682122
- Title: FaceLeaks: Inference Attacks against Transfer Learning Models via
Black-box Queries
- Title(参考訳): FaceLeaks: Black-boxクエリによる転送学習モデルに対する推論攻撃
- Authors: Seng Pei Liew and Tsubasa Takahashi
- Abstract要約: 教師モデルと直接対話することなく,個人情報を漏らしたり推測したりできるかどうかを検討する。
集約レベル情報から推測する新しい手法を提案する。
本研究は,情報漏洩が現実の状況で広く利用されている伝達学習フレームワークに対する真のプライバシー上の脅威であることを示す。
- 参考スコア(独自算出の注目度): 2.7564955518050693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is a useful machine learning framework that allows one to
build task-specific models (student models) without significantly incurring
training costs using a single powerful model (teacher model) pre-trained with a
large amount of data. The teacher model may contain private data, or interact
with private inputs. We investigate if one can leak or infer such private
information without interacting with the teacher model directly. We describe
such inference attacks in the context of face recognition, an application of
transfer learning that is highly sensitive to personal privacy.
Under black-box and realistic settings, we show that existing inference
techniques are ineffective, as interacting with individual training instances
through the student models does not reveal information about the teacher. We
then propose novel strategies to infer from aggregate-level information.
Consequently, membership inference attacks on the teacher model are shown to be
possible, even when the adversary has access only to the student models.
We further demonstrate that sensitive attributes can be inferred, even in the
case where the adversary has limited auxiliary information. Finally, defensive
strategies are discussed and evaluated. Our extensive study indicates that
information leakage is a real privacy threat to the transfer learning framework
widely used in real-life situations.
- Abstract(参考訳): 転送学習は、大量のデータを事前トレーニングした単一の強力なモデル(教師モデル)を使用して、トレーニングコストを著しく負担することなく、タスク固有のモデル(学生モデル)を構築できる、有用な機械学習フレームワークである。
教師モデルは、プライベートデータを含むか、プライベート入力と相互作用する。
教師モデルと直接対話することなく,そのような個人情報を漏洩・推測できるかどうかを検討する。
このような推論攻撃は、個人のプライバシーに非常に敏感な伝達学習の応用である顔認識の文脈で記述する。
ブラックボックスと現実的な設定の下では,生徒モデルによる個々のトレーニングインスタンスとのインタラクションでは教師に関する情報が明らかにされないため,既存の推論手法は有効ではないことを示す。
次に、集約レベル情報から推測する新しい戦略を提案する。
これにより、敵が生徒モデルのみにアクセスした場合でも、教師モデルに対するメンバーシップ推論攻撃が可能であることが示されている。
さらに,敵が限定的な補助情報を持っている場合でも,敏感な属性を推測できることを実証する。
最後に防衛戦略を議論し、評価する。
我々の広範な研究は、情報漏洩が現実の状況で広く使われている伝達学習フレームワークに対する真のプライバシー上の脅威であることを示している。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Does CLIP Know My Face? [31.21910897081894]
マルチモーダルモデル,特にCLIPのような視覚言語モデルのプライバシを評価する新しい手法を提案する。
提案したIDIA攻撃(IDIA)は、同一人物の画像でモデルをクエリすることで、個人がトレーニングデータに含まれるかどうかを明らかにする。
我々の結果は、大規模モデルにおけるより強力なプライバシー保護の必要性を強調し、IDIAは、トレーニングに不正なデータの使用を証明し、プライバシー法を強制するために使用できることを示唆している。
論文 参考訳(メタデータ) (2022-09-15T14:48:50Z) - Teacher Model Fingerprinting Attacks Against Transfer Learning [23.224444604615123]
転校学習における教師モデル曝露の脅威を包括的に調査する。
本稿では,学生モデルの起源を推定するために,教師モデルフィンガープリント攻撃を提案する。
我々の攻撃は、探索クエリがほとんどないモデルの起源を正確に識別できることを示します。
論文 参考訳(メタデータ) (2021-06-23T15:52:35Z) - Understanding Robustness in Teacher-Student Setting: A New Perspective [42.746182547068265]
適応的な例は機械学習モデルで、有界な対向的摂動はモデルを誤解させ、任意に誤った予測をすることができる。
広範な研究は、逆例の存在を説明し、モデルのロバスト性を改善する方法を提供する。
我々の研究は、敵対的な事例に関する将来の探索を暗示し、原則化されたデータ拡張を通じてモデルロバスト性を高めることができる。
論文 参考訳(メタデータ) (2021-02-25T20:54:24Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Differentially Private Deep Learning with Smooth Sensitivity [144.31324628007403]
プライバシーに関する懸念を、差分プライバシーのレンズを通して研究する。
このフレームワークでは、モデルのトレーニングに使用されるデータの詳細が曖昧になるようにモデルを摂動することで、一般的にプライバシー保証が得られます。
過去の研究で使われた最も重要なテクニックの1つは、教師モデルのアンサンブルであり、ノイズの多い投票手順に基づいて生徒に情報を返す。
本研究では,イミュータブルノイズArgMaxと呼ばれるスムーズな感性を有する新しい投票機構を提案する。これは,ある条件下では,学生に伝達される有用な情報に影響を与えることなく,教師から非常に大きなランダムノイズを発生させることができる。
論文 参考訳(メタデータ) (2020-03-01T15:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。