論文の概要: Personalized Privacy Auditing and Optimization at Test Time
- arxiv url: http://arxiv.org/abs/2302.00077v1
- Date: Tue, 31 Jan 2023 20:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 14:03:00.004767
- Title: Personalized Privacy Auditing and Optimization at Test Time
- Title(参考訳): 個人化プライバシ監査とテスト時の最適化
- Authors: Cuong Tran, Ferdinando Fioretto
- Abstract要約: 本稿では、モデルがテスト時に正確な予測を返却するために、入力機能を必要とするかどうかを問う。
パーソナライズされた設定の下では、各個人は最終的な決定に影響を与えることなく、これらの機能の小さなサブセットだけをリリースする必要があるかもしれない。
複数の学習課題に対する評価は、個人が同じレベルの精度を確保するために、情報の10%しか報告できないことを示している。
- 参考スコア(独自算出の注目度): 44.15285550981899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A number of learning models used in consequential domains, such as to assist
in legal, banking, hiring, and healthcare decisions, make use of potentially
sensitive users' information to carry out inference. Further, the complete set
of features is typically required to perform inference. This not only poses
severe privacy risks for the individuals using the learning systems, but also
requires companies and organizations massive human efforts to verify the
correctness of the released information.
This paper asks whether it is necessary to require \emph{all} input features
for a model to return accurate predictions at test time and shows that, under a
personalized setting, each individual may need to release only a small subset
of these features without impacting the final decisions. The paper also
provides an efficient sequential algorithm that chooses which attributes should
be provided by each individual. Evaluation over several learning tasks shows
that individuals may be able to report as little as 10\% of their information
to ensure the same level of accuracy of a model that uses the complete users'
information.
- Abstract(参考訳): 法律、銀行、雇用、医療決定を支援するために、一連のドメインで使用される多くの学習モデルは、潜在的に敏感なユーザーの情報を利用して推論を行う。
さらに、推論を実行するには機能の完全なセットが通常必要である。
これは学習システムを使用している個人にとって厳しいプライバシーリスクをもたらすだけでなく、公開情報の正確性を検証するために企業や組織が膨大な人的努力をしなければならない。
本稿では、モデルがテスト時に正確な予測を返すのに「emph{all}」入力機能を必要とするかどうかを問うとともに、パーソナライズされた設定の下では、最終的な決定に影響を与えることなく、これらの機能の小さなサブセットだけをリリースする必要があることを示す。
また、各個人によって提供される属性を選択する効率的なシーケンシャルアルゴリズムも提供する。
複数の学習課題に対する評価は、個人が情報の10倍程度しか報告できないことを示し、完全なユーザの情報を使用するモデルの同じレベルの精度を保証できることを示している。
関連論文リスト
- Data Minimization at Inference Time [44.15285550981899]
法律、採用、医療といった高い利害関係を持つドメインでは、学習モデルは推論に敏感なユーザーデータに依存することが多い。
本稿では,推定時刻の正確な予測にセンホール入力機能を使う必要があるかどうかを問う。
この論文は、パーソナライズされた環境では、個人が意思決定の正確さを損なうことなく、機能の小さなサブセットを公開する必要があることを実証している。
論文 参考訳(メタデータ) (2023-05-27T23:03:41Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - Can Foundation Models Help Us Achieve Perfect Secrecy? [11.073539163281524]
機械学習の鍵となる約束は、ユーザーをパーソナルなタスクで支援する能力である。
金の標準プライバシー保護システムは、完全な機密性を満たすだろう。
しかし、プライバシーと品質は、個人業務のために既存のシステムでは緊張しているようだ。
論文 参考訳(メタデータ) (2022-05-27T02:32:26Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。