論文の概要: Bounding the Invertibility of Privacy-preserving Instance Encoding using
Fisher Information
- arxiv url: http://arxiv.org/abs/2305.04146v1
- Date: Sat, 6 May 2023 23:00:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 17:19:09.665723
- Title: Bounding the Invertibility of Privacy-preserving Instance Encoding using
Fisher Information
- Title(参考訳): 漁業情報を用いたプライバシ保護インスタンスエンコーディングの可逆性の境界
- Authors: Kiwan Maeng, Chuan Guo, Sanjay Kariyappa, G. Edward Suh
- Abstract要約: プライバシ保護インスタンスエンコーディングは、プライバシに敏感な情報を公開せずに、生データを機能ベクタとしてエンコードすることを目的としている。
本稿では,フィッシャー情報に基づくインスタンスエンコーディングのプライバシに関する理論的手法を提案する。
- 参考スコア(独自算出の注目度): 18.360670521178843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving instance encoding aims to encode raw data as feature
vectors without revealing their privacy-sensitive information. When designed
properly, these encodings can be used for downstream ML applications such as
training and inference with limited privacy risk. However, the vast majority of
existing instance encoding schemes are based on heuristics and their
privacy-preserving properties are only validated empirically against a limited
set of attacks. In this paper, we propose a theoretically-principled measure
for the privacy of instance encoding based on Fisher information. We show that
our privacy measure is intuitive, easily applicable, and can be used to bound
the invertibility of encodings both theoretically and empirically.
- Abstract(参考訳): プライバシ保存インスタンスエンコーディングは、プライバシに敏感な情報を明かすことなく、生データを特徴ベクトルとしてエンコードすることを目的としている。
適切に設計された場合、これらのエンコーディングは、限られたプライバシーリスクを伴うトレーニングや推論などの下流MLアプリケーションに使用することができる。
しかしながら、既存のインスタンスエンコーディングスキームの大部分はヒューリスティックに基づいており、プライバシ保護プロパティは限られた一連の攻撃に対して実証的にのみ検証される。
本稿では,フィッシャー情報に基づくインスタンスエンコーディングのプライバシに関する理論的手法を提案する。
我々のプライバシー尺度は直感的であり、容易に適用でき、理論的にも経験的にもエンコーディングの可逆性を制限するのに使うことができる。
関連論文リスト
- Calibrating Practical Privacy Risks for Differentially Private Machine Learning [5.363664265121231]
モデルトレーニングにおいて、より柔軟なプライバシ予算設定を可能にするために、攻撃の成功率を下げるアプローチについて検討する。
プライバシに敏感な機能を選択的に抑制することで、アプリケーション固有のデータユーティリティを損なうことなく、低いASR値を達成できることがわかりました。
論文 参考訳(メタデータ) (2024-10-30T03:52:01Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - Privacy Implications of Retrieval-Based Language Models [26.87950501433784]
本稿では,検索に基づくLM,特に$k$NN-LMにおけるプライバシリスクに関する最初の研究について述べる。
パラメトリックモデルよりも、$k$NN-LMsの方がプライベートデータストアから個人情報をリークする可能性が高いことがわかりました。
論文 参考訳(メタデータ) (2023-05-24T08:37:27Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Is Private Learning Possible with Instance Encoding? [68.84324434746765]
本研究では,インスタンスエンコーディング機構を用いて,非プライベートな学習アルゴリズムをプライベートにすることができるかを検討する。
2つの攻撃モデルを提供することで、インスタンスエンコーディングの概念とプライバシの両方を形式化する。
論文 参考訳(メタデータ) (2020-11-10T18:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。