論文の概要: What If, But Privately: Private Counterfactual Retrieval
- arxiv url: http://arxiv.org/abs/2508.03681v1
- Date: Tue, 05 Aug 2025 17:51:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.109162
- Title: What If, But Privately: Private Counterfactual Retrieval
- Title(参考訳): もしも私的だったとしても、私的な偽物検索は?
- Authors: Shreya Meel, Mohamed Nomeir, Pasan Dissanayake, Sanghamitra Dutta, Sennur Ulukus,
- Abstract要約: 透明性と説明可能性は、ブラックボックス機械学習モデルを高精細なアプリケーションに採用する際に考慮すべき重要な2つの側面である。
反事実的説明を提供することは、この要件を満たす一つの方法であるが、説明を提供する機関のプライバシーと、それを要求している利用者に脅威を与える。
本フレームワークは,利用者の完全かつ情報理論的,プライバシーを達成しつつ,受理点のデータベースから最も近い近隣の偽説明を検索する。
- 参考スコア(独自算出の注目度): 34.11302393278422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transparency and explainability are two important aspects to be considered when employing black-box machine learning models in high-stake applications. Providing counterfactual explanations is one way of catering this requirement. However, this also poses a threat to the privacy of the institution that is providing the explanation, as well as the user who is requesting it. In this work, we are primarily concerned with the user's privacy who wants to retrieve a counterfactual instance, without revealing their feature vector to the institution. Our framework retrieves the exact nearest neighbor counterfactual explanation from a database of accepted points while achieving perfect, information-theoretic, privacy for the user. First, we introduce the problem of private counterfactual retrieval (PCR) and propose a baseline PCR scheme that keeps the user's feature vector information-theoretically private from the institution. Building on this, we propose two other schemes that reduce the amount of information leaked about the institution database to the user, compared to the baseline scheme. Second, we relax the assumption of mutability of all features, and consider the setting of immutable PCR (I-PCR). Here, the user retrieves the nearest counterfactual without altering a private subset of their features, which constitutes the immutable set, while keeping their feature vector and immutable set private from the institution. For this, we propose two schemes that preserve the user's privacy information-theoretically, but ensure varying degrees of database privacy. Third, we extend our PCR and I-PCR schemes to incorporate user's preference on transforming their attributes, so that a more actionable explanation can be received. Finally, we present numerical results to support our theoretical findings, and compare the database leakage of the proposed schemes.
- Abstract(参考訳): 透明性と説明可能性は、ブラックボックス機械学習モデルを高精細なアプリケーションに採用する際に考慮すべき重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
しかし、これはまた、説明を提供する機関のプライバシーと、それを要求している利用者に脅威をもたらす。
本研究は, 施設に特徴ベクトルを公開せずに, 偽物事例の検索を希望するユーザのプライバシに主眼を置いている。
本フレームワークは,利用者の完全かつ情報理論的,プライバシーを達成しつつ,受理点のデータベースから最も近い近隣の偽説明を検索する。
まず, PCR(Private counterfactual Search)の問題を紹介し, ユーザの特徴ベクトル情報を, 理論上は機関からプライベートに保持するベースラインPCR方式を提案する。
そこで本研究では,機関データベースに関する情報漏洩量を,ベースライン方式と比較して2つの手法を提案する。
次に,全ての特徴の変異性の仮定を緩和し,不変PCR(I-PCR)の設定を検討する。
ここで、ユーザは、イミュータブルなセットを構成する特徴のプライベートサブセットを変更することなく、最も近いデファクトを検索し、その特徴ベクトルとイミュータブルなセットを機関からプライベートに保持する。
そこで本研究では,ユーザのプライバシ情報を理論的に保存する2つの手法を提案する。
第3に, PCR および I-PCR スキームを拡張して, 属性変換に対するユーザの嗜好を取り入れることで, より実用的な説明が受け取れるようにした。
最後に,提案手法のデータベースリークを比較し,理論的結果を支持する数値的な結果を示す。
関連論文リスト
- Private Counterfactual Retrieval With Immutable Features [34.11302393278422]
分類タスクにおいて、対実的な説明は、入力が好ましいクラスに分類されるために必要な最小限の変更を提供する。
受理されたサンプルのデータベースから最も近い正解をプライベートに回収する問題を考察する。
プライベート情報検索(PIR)の技術を活用し,その通信コストを特徴付ける2つのI-PCR手法を提案する。
論文 参考訳(メタデータ) (2024-11-15T18:50:53Z) - Private Counterfactual Retrieval [34.11302393278422]
透明性と説明可能性は、ブラックボックス機械学習モデルを高精細なアプリケーションに採用する際に考慮すべき、極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
本稿では,個人情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
論文 参考訳(メタデータ) (2024-10-17T17:45:07Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Privacy Preserving Machine Learning for Behavioral Authentication
Systems [0.0]
行動認証(BA)システムは、ユーザの行動特性を使用して、アイデンティティークレームの検証を行う。
他のニューラルネットワーク(NN)アーキテクチャと同様に、BAシステムのNN分類器は、プライバシ攻撃に対して脆弱である。
我々は、MLベースのプライバシ攻撃を導入し、提案システムは、これや他のプライバシおよびセキュリティ攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2023-08-31T19:15:26Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。