論文の概要: Private Counterfactual Retrieval With Immutable Features
- arxiv url: http://arxiv.org/abs/2411.10429v1
- Date: Fri, 15 Nov 2024 18:50:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:37:58.207974
- Title: Private Counterfactual Retrieval With Immutable Features
- Title(参考訳): イミュータブルな特徴を持つプライベート・カウンタファクト検索
- Authors: Shreya Meel, Pasan Dissanayake, Mohamed Nomeir, Sanghamitra Dutta, Sennur Ulukus,
- Abstract要約: 分類タスクにおいて、対実的な説明は、入力が好ましいクラスに分類されるために必要な最小限の変更を提供する。
受理されたサンプルのデータベースから最も近い正解をプライベートに回収する問題を考察する。
プライベート情報検索(PIR)の技術を活用し,その通信コストを特徴付ける2つのI-PCR手法を提案する。
- 参考スコア(独自算出の注目度): 34.11302393278422
- License:
- Abstract: In a classification task, counterfactual explanations provide the minimum change needed for an input to be classified into a favorable class. We consider the problem of privately retrieving the exact closest counterfactual from a database of accepted samples while enforcing that certain features of the input sample cannot be changed, i.e., they are \emph{immutable}. An applicant (user) whose feature vector is rejected by a machine learning model wants to retrieve the sample closest to them in the database without altering a private subset of their features, which constitutes the immutable set. While doing this, the user should keep their feature vector, immutable set and the resulting counterfactual index information-theoretically private from the institution. We refer to this as immutable private counterfactual retrieval (I-PCR) problem which generalizes PCR to a more practical setting. In this paper, we propose two I-PCR schemes by leveraging techniques from private information retrieval (PIR) and characterize their communication costs. Further, we quantify the information that the user learns about the database and compare it for the proposed schemes.
- Abstract(参考訳): 分類タスクにおいて、対実的な説明は、入力が好ましいクラスに分類されるために必要な最小限の変更を提供する。
入力されたサンプルの特定の特徴が変更できないこと、すなわち、それらが \emph{immutable} であることを強制しながら、受け入れられたサンプルのデータベースから、最も近いカウンターファクトをプライベートに回収する問題を考える。
機械学習モデルにより特徴ベクトルが拒否されたユーザ(ユーザ)は、不変集合を構成する、その特徴のプライベートサブセットを変更することなく、データベースに最も近いサンプルを検索したい。
これを行う際、ユーザは、特徴ベクトル、不変セット、そして結果の偽物指標情報(理論上は機関から非公開)を保持すべきである。
我々はこの問題を,PCRをより実践的な環境に一般化する不変な私的反事実検索(I-PCR)問題と呼ぶ。
本稿では,プライベート情報検索(PIR)の技術を活用し,その通信コストを特徴付ける2つのI-PCR手法を提案する。
さらに,ユーザがデータベースについて学習する情報を定量化し,提案手法と比較する。
関連論文リスト
- Private Counterfactual Retrieval [34.11302393278422]
透明性と説明可能性は、ブラックボックス機械学習モデルを採用する際に考慮すべき極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
プライベート情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
論文 参考訳(メタデータ) (2024-10-17T17:45:07Z) - Personalized Federated Collaborative Filtering: A Variational AutoEncoder Approach [49.63614966954833]
Federated Collaborative Filtering (FedCF)は、プライバシを保護する新しいレコメンデーションフレームワークの開発に焦点を当てた新興分野である。
本稿では,ユーザのパーソナライズされた情報を潜在変数とニューラルモデルに同時に保存することで,新たなパーソナライズされたFedCF手法を提案する。
提案フレームワークを効果的に学習するために,ユーザインタラクションベクトル再構成と欠落した値予測を統合することで,特殊変分オートエンコーダ(VAE)タスクとして問題をモデル化する。
論文 参考訳(メタデータ) (2024-08-16T05:49:14Z) - Wiki-En-ASR-Adapt: Large-scale synthetic dataset for English ASR
Customization [66.22007368434633]
自動音声認識(ASR)のコンテキストスペルチェックカスタマイズのための,最初の大規模公開合成データセットを提案する。
提案手法により、崩壊したASR仮説の数百万の現実的な例を作成し、カスタマイズタスクの非自明なバイアスリストをシミュレートすることができる。
提案したデータセット上で,オープンソースのカスタマイズモデルをトレーニングした実験を報告し,ハードネガティブなバイアスフレーズの注入がWERを減少させ,誤報の回数を減少させることを示す。
論文 参考訳(メタデータ) (2023-09-29T14:18:59Z) - Generalized PTR: User-Friendly Recipes for Data-Adaptive Algorithms with
Differential Privacy [16.374676154278614]
「PTR」(Propose-Test-Release)は、微分プライベート(DP)アルゴリズムを設計するための古典的なレシピである。
PTRは、ローカルな感度よりも、データ依存のプライバシー損失をプライベートにテストすることで、より一般的な設定に拡張します。
論文 参考訳(メタデータ) (2022-12-31T22:22:53Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z) - Multi-class Classifier based Failure Prediction with Artificial and
Anonymous Training for Data Privacy [0.0]
故障予測のためのニューラルネットワークに基づくマルチクラス分類器を開発した。
提案したメカニズムは、トレーニングプロセスで使用されるデータセットを、プライベートに保持されている実際のデータから完全に分離する。
その結果,異なるパラメータ構成下での故障予測の精度が向上した。
論文 参考訳(メタデータ) (2022-09-06T07:53:33Z) - Determination of class-specific variables in nonparametric
multiple-class classification [0.0]
確率に基づく非パラメトリックな多重クラス分類法を提案し、それを個々のクラスに対して高い影響変数を識別する能力と統合する。
提案手法の特性を報告し, 合成データと実データの両方を用いて, 異なる分類条件下での特性を説明する。
論文 参考訳(メタデータ) (2022-05-07T10:08:58Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Control Variates for Slate Off-Policy Evaluation [112.35528337130118]
多次元動作を伴うバッチ化されたコンテキスト帯域データから政治外評価の問題について検討する。
我々は, PIと自己正規化PIの双方に対して, リスク改善を保証した新しい推定器を得る。
論文 参考訳(メタデータ) (2021-06-15T06:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。