論文の概要: Private Counterfactual Retrieval
- arxiv url: http://arxiv.org/abs/2410.13812v1
- Date: Thu, 17 Oct 2024 17:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:19:09.472984
- Title: Private Counterfactual Retrieval
- Title(参考訳): Private Counterfactal Retrieval
- Authors: Mohamed Nomeir, Pasan Dissanayake, Shreya Meel, Sanghamitra Dutta, Sennur Ulukus,
- Abstract要約: 透明性と説明可能性は、ブラックボックス機械学習モデルを採用する際に考慮すべき極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
プライベート情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
- 参考スコア(独自算出の注目度): 34.11302393278422
- License:
- Abstract: Transparency and explainability are two extremely important aspects to be considered when employing black-box machine learning models in high-stake applications. Providing counterfactual explanations is one way of catering this requirement. However, this also poses a threat to the privacy of both the institution that is providing the explanation as well as the user who is requesting it. In this work, we propose multiple schemes inspired by private information retrieval (PIR) techniques which ensure the \emph{user's privacy} when retrieving counterfactual explanations. We present a scheme which retrieves the \emph{exact} nearest neighbor counterfactual explanation from a database of accepted points while achieving perfect (information-theoretic) privacy for the user. While the scheme achieves perfect privacy for the user, some leakage on the database is inevitable which we quantify using a mutual information based metric. Furthermore, we propose strategies to reduce this leakage to achieve an advanced degree of database privacy. We extend these schemes to incorporate user's preference on transforming their attributes, so that a more actionable explanation can be received. Since our schemes rely on finite field arithmetic, we empirically validate our schemes on real datasets to understand the trade-off between the accuracy and the finite field sizes.
- Abstract(参考訳): 透明性と説明可能性は、ブラックボックス機械学習モデルを高精細なアプリケーションに採用する際に考慮すべき、極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
しかし、これはまた、説明を提供している機関と、それを要求しているユーザーの両方のプライバシーを脅かしている。
本研究では,個人情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
本稿では,ユーザにとって完全な(情報-理論的な)プライバシを達成しつつ,受理点のデータベースから近傍のemph{exact} の反実的説明を検索する手法を提案する。
このスキームはユーザにとって完全なプライバシを実現する一方で,相互情報に基づくメトリクスを用いて定量化するために,データベース上のいくつかのリークは避けられない。
さらに,このリークを低減し,高度なデータベースプライバシを実現する戦略を提案する。
これらのスキームを拡張して,属性の変換に対するユーザの好みを取り入れることで,より実用的な説明が受け取れるようにした。
我々のスキームは有限体算術に依存するので、精度と有限体サイズの間のトレードオフを理解するために実データセット上のスキームを実証的に検証する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse [13.95253855760017]
提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
論文 参考訳(メタデータ) (2023-09-08T08:47:23Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。