論文の概要: CLIPping Privacy: Identity Inference Attacks on Multi-Modal Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2209.07341v1
- Date: Thu, 15 Sep 2022 14:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:36:30.330446
- Title: CLIPping Privacy: Identity Inference Attacks on Multi-Modal Machine
Learning Models
- Title(参考訳): CLIPpingプライバシー:マルチモーダル機械学習モデルにおけるアイデンティティ推論攻撃
- Authors: Dominik Hintersdorf and Lukas Struppek and Kristian Kersting
- Abstract要約: 私たちは、CLIPのようなマルチモーダル画像テキストモデル用に設計された、IDIA(IDIA)と呼ばれる新しいタイプのプライバシ攻撃を導入する。
攻撃者は、非常に高い精度で訓練に使用する個人を識別でき、モデルが人物と名前を結びつけることを学習することを示す。
実験の結果,マルチモーダル画像テキストモデルがトレーニングデータの機密情報をリークしていることが判明した。
- 参考スコア(独自算出の注目度): 16.421253324649555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning is now used in many real-world applications, research has
focused increasingly on the privacy of deep learning models and how to prevent
attackers from obtaining sensitive information about the training data.
However, image-text models like CLIP have not yet been looked at in the context
of privacy attacks. While membership inference attacks aim to tell whether a
specific data point was used for training, we introduce a new type of privacy
attack, named identity inference attack (IDIA), designed for multi-modal
image-text models like CLIP. Using IDIAs, an attacker can reveal whether a
particular person, was part of the training data by querying the model in a
black-box fashion with different images of the same person. Letting the model
choose from a wide variety of possible text labels, the attacker can probe the
model whether it recognizes the person and, therefore, was used for training.
Through several experiments on CLIP, we show that the attacker can identify
individuals used for training with very high accuracy and that the model learns
to connect the names with the depicted people. Our experiments show that a
multi-modal image-text model indeed leaks sensitive information about its
training data and, therefore, should be handled with care.
- Abstract(参考訳): ディープラーニングは現在、多くの現実世界のアプリケーションで使われているため、研究はディープラーニングモデルのプライバシと、攻撃者がトレーニングデータに関する機密情報を取得するのを防ぐ方法に重点を置いている。
しかし、CLIPのような画像テキストモデルは、プライバシ攻撃の文脈ではまだ検討されていない。
会員推測攻撃は、特定のデータポイントがトレーニングに使用されたかどうかを判断することを目的としているが、CLIPのようなマルチモーダル画像テキストモデル用に設計されたIDIA(IDIA)と呼ばれる新しいタイプのプライバシ攻撃を導入する。
攻撃者はIDIAを使用して、同一人物の異なるイメージでブラックボックス形式でモデルをクエリすることで、特定の人物がトレーニングデータの一部であるかどうかを明らかにすることができる。
モデルにさまざまな可能なテキストラベルを選択させることで、攻撃者はモデルが人物を認識するかどうかを調査できるため、トレーニングに使用された。
CLIPのいくつかの実験を通して、攻撃者は極めて高精度に訓練に使用する個人を識別でき、モデルが表現された人物と名前を結びつけることを学習することを示す。
本実験では,マルチモーダル画像テキストモデルが,そのトレーニングデータに関する機密情報を実際に漏らし,それ故に注意して処理すべきであることを示す。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Membership Inference Attacks and Privacy in Topic Modeling [3.503833571450681]
トレーニングデータのメンバーを確実に識別できるトピックモデルに対する攻撃を提案する。
本稿では,DP語彙選択を前処理ステップとして組み込んだプライベートトピックモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-07T12:43:42Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - FaceLeaks: Inference Attacks against Transfer Learning Models via
Black-box Queries [2.7564955518050693]
教師モデルと直接対話することなく,個人情報を漏らしたり推測したりできるかどうかを検討する。
集約レベル情報から推測する新しい手法を提案する。
本研究は,情報漏洩が現実の状況で広く利用されている伝達学習フレームワークに対する真のプライバシー上の脅威であることを示す。
論文 参考訳(メタデータ) (2020-10-27T03:02:40Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。