論文の概要: Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries
- arxiv url: http://arxiv.org/abs/2210.10750v2
- Date: Thu, 1 Jun 2023 12:30:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 01:21:33.225408
- Title: Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries
- Title(参考訳): カナリア・イン・ア・カルミン : 対立的クエリを組み込んだより良いメンバーシップ推論
- Authors: Yuxin Wen, Arpit Bansal, Hamid Kazemi, Eitan Borgnia, Micah Goldblum,
Jonas Geiping, Tom Goldstein
- Abstract要約: 私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
- 参考スコア(独自算出の注目度): 53.222218035435006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As industrial applications are increasingly automated by machine learning
models, enforcing personal data ownership and intellectual property rights
requires tracing training data back to their rightful owners. Membership
inference algorithms approach this problem by using statistical techniques to
discern whether a target sample was included in a model's training set.
However, existing methods only utilize the unaltered target sample or simple
augmentations of the target to compute statistics. Such a sparse sampling of
the model's behavior carries little information, leading to poor inference
capabilities. In this work, we use adversarial tools to directly optimize for
queries that are discriminative and diverse. Our improvements achieve
significantly more accurate membership inference than existing methods,
especially in offline scenarios and in the low false-positive regime which is
critical in legal settings. Code is available at
https://github.com/YuxinWenRick/canary-in-a-coalmine.
- Abstract(参考訳): 産業アプリケーションは、機械学習モデルによってますます自動化されているため、個人データ所有と知的財産権の強制は、トレーニングデータを正当な所有者に遡る必要がある。
会員推論アルゴリズムは、統計的手法を用いて、対象サンプルがモデルのトレーニングセットに含まれるかどうかを識別する。
しかし、既存の手法では、変更されていないターゲットサンプルまたは単純なターゲットの加算のみを使用して統計を計算する。
このようなモデルの振る舞いをまばらにサンプリングすると、情報が少なくなり、推論能力が低下する。
本研究では,識別的かつ多様なクエリを直接最適化するために,逆ツールを用いる。
我々の改善は、既存の方法、特にオフラインシナリオや法的な設定において重要な低い偽陽性体制において、かなり正確な会員推測を実現する。
コードはhttps://github.com/yuxinwenrick/canary-in-a-coalmineで入手できる。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Adversarial Counterfactual Environment Model Learning [14.47625059952581]
本稿では,特定のターゲットポリシーによってクエリされた対物データセットに一般化するためのモデル学習において,対物的リスク最小化(CQRM)を導入する。
政策学習において,対象の方針は多様かつ未知であるため,敵の方針に照らされた対実データに基づいて学習する敵のCQRM目標を提案する。
合成タスクにGALILEOを適用し,実世界の応用について検討する。
論文 参考訳(メタデータ) (2022-06-10T06:09:06Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Self-Supervised Relational Reasoning for Representation Learning [5.076419064097733]
自己教師型学習では、ラベルのないデータに対して代替ターゲットを定義することにより、代理目的を達成することを課題とする。
本稿では,学習者が無ラベルデータに暗黙的な情報から信号をブートストラップできる,新たな自己教師型関係推論法を提案する。
提案手法は,標準データセット,プロトコル,バックボーンを用いて,厳密な実験手順に従って評価する。
論文 参考訳(メタデータ) (2020-06-10T14:24:25Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。