論文の概要: Information Laundering for Model Privacy
- arxiv url: http://arxiv.org/abs/2009.06112v1
- Date: Sun, 13 Sep 2020 23:24:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 03:00:00.289391
- Title: Information Laundering for Model Privacy
- Title(参考訳): モデルプライバシーのための情報ロンダリング
- Authors: Xinran Wang, Yu Xiang, Jun Gao, Jie Ding
- Abstract要約: 本稿では,モデルプライバシ向上のための新しいフレームワークであるインフォメーション・ロンダリングを提案する。
生のデータ情報の保護に関するデータプライバシとは異なり、モデルプライバシは、公開用にデプロイされる既に学習済みのモデルを保護することを目的としている。
- 参考スコア(独自算出の注目度): 34.66708766179596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose information laundering, a novel framework for
enhancing model privacy. Unlike data privacy that concerns the protection of
raw data information, model privacy aims to protect an already-learned model
that is to be deployed for public use. The private model can be obtained from
general learning methods, and its deployment means that it will return a
deterministic or random response for a given input query. An
information-laundered model consists of probabilistic components that
deliberately maneuver the intended input and output for queries to the model,
so the model's adversarial acquisition is less likely. Under the proposed
framework, we develop an information-theoretic principle to quantify the
fundamental tradeoffs between model utility and privacy leakage and derive the
optimal design.
- Abstract(参考訳): 本稿では,モデルプライバシ向上のための新しい枠組みである情報洗浄を提案する。
生のデータ情報の保護に関するデータプライバシとは異なり、モデルプライバシは、公開用にデプロイされる既に学習済みのモデルを保護することを目的としている。
プライベートモデルは一般的な学習方法から得ることができ、そのデプロイは、与えられた入力クエリに対して決定論的あるいはランダムな応答を返すことを意味する。
情報洗浄モデルは、モデルへの問い合わせに対して意図した入力と出力を故意に操作する確率的コンポーネントから構成されているため、モデルの敵対的獲得は少なくなる。
提案フレームワークでは,モデルユーティリティとプライバシリークの基本的なトレードオフを定量化し,最適設計を導出する情報理論の原理を開発する。
関連論文リスト
- Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Model Transparency and Interpretability : Survey and Application to the
Insurance Industry [1.6058099298620423]
本稿では、モデルタックルの解釈の重要性とモデルの透明性の概念を紹介する。
保険のコンテキスト内では、アクチュアリアルモデルの制御を強制するために、いくつかのツールがどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-09-01T16:12:54Z) - Differentially Private Counterfactuals via Functional Mechanism [47.606474009932825]
本稿では,デプロイされたモデルや説明セットに触れることなく,差分的プライベート・カウンティファクト(DPC)を生成する新しいフレームワークを提案する。
特に、ノイズの多いクラスプロトタイプを構築するための機能機構を備えたオートエンコーダを訓練し、次に潜伏プロトタイプからDPCを導出する。
論文 参考訳(メタデータ) (2022-08-04T20:31:22Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Privacy-preserving Generative Framework Against Membership Inference
Attacks [10.791983671720882]
我々は、メンバーシップ推論攻撃に対するプライバシー保護のための生成フレームワークを設計する。
まず、VAEモデルを通してソースデータを潜時空間にマッピングして潜時符号を取得し、次に潜時符号上でメートル法プライバシーを満たすノイズ処理を行い、最終的にVAEモデルを用いて合成データを再構成する。
実験により、新たに生成した合成データを用いて学習した機械学習モデルは、メンバーシップ推論攻撃に効果的に抵抗でき、高いユーティリティを維持できることを示した。
論文 参考訳(メタデータ) (2022-02-11T06:13:30Z) - Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model [35.016050900061]
本稿では,モデルの有効性を評価するために解釈可能な手法を用いることに焦点をあてる。
プライバシーを守るための一般的な方法が、プライバシー保護の人間の認識とどのように一致しないかを示します。
評価者の傾きを評価し、特定のタスクのモデルを選択するためのクラウドソーシング実験を行います。
論文 参考訳(メタデータ) (2021-04-18T09:56:41Z) - The Influence of Dropout on Membership Inference in Differentially
Private Models [0.0]
異なるプライベートモデルは、モデルがトレーニングしたデータのプライバシ保護を目指している。
我々は、差分プライバシーのないモデルに対する会員推測攻撃を行う。
論文 参考訳(メタデータ) (2021-03-16T12:09:51Z) - MACE: A Flexible Framework for Membership Privacy Estimation in
Generative Models [14.290199072565162]
生成モデルにおけるメンバシッププライバシ推定のための最初の公式なフレームワークを提案する。
これまでの作業と比較すると、私たちのフレームワークはより現実的で柔軟な仮定をします。
論文 参考訳(メタデータ) (2020-09-11T23:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。