論文の概要: Data Minimization at Inference Time
- arxiv url: http://arxiv.org/abs/2305.17593v1
- Date: Sat, 27 May 2023 23:03:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 17:56:20.115582
- Title: Data Minimization at Inference Time
- Title(参考訳): 推論時のデータ最小化
- Authors: Cuong Tran and Ferdinando Fioretto
- Abstract要約: 法律、採用、医療といった高い利害関係を持つドメインでは、学習モデルは推論に敏感なユーザーデータに依存することが多い。
本稿では,推定時刻の正確な予測にセンホール入力機能を使う必要があるかどうかを問う。
この論文は、パーソナライズされた環境では、個人が意思決定の正確さを損なうことなく、機能の小さなサブセットを公開する必要があることを実証している。
- 参考スコア(独自算出の注目度): 44.15285550981899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In domains with high stakes such as law, recruitment, and healthcare,
learning models frequently rely on sensitive user data for inference,
necessitating the complete set of features. This not only poses significant
privacy risks for individuals but also demands substantial human effort from
organizations to verify information accuracy. This paper asks whether it is
necessary to use \emph{all} input features for accurate predictions at
inference time. The paper demonstrates that, in a personalized setting,
individuals may only need to disclose a small subset of their features without
compromising decision-making accuracy. The paper also provides an efficient
sequential algorithm to determine the appropriate attributes for each
individual to provide. Evaluations across various learning tasks show that
individuals can potentially report as little as 10\% of their information while
maintaining the same accuracy level as a model that employs the full set of
user information.
- Abstract(参考訳): 法律、採用、医療といった高い利害関係を持つドメインでは、学習モデルは推論に敏感なユーザデータに頼ることが多く、機能の完全なセットを必要とする。
これは個人に重大なプライバシーリスクをもたらすだけでなく、組織から情報の正確性を検証するためにかなりの人的努力を要求する。
本稿では,推論時の正確な予測に \emph{all} 入力機能を使う必要があるかどうかを問う。
パーソナライズされた環境では、個人は、意思決定の正確さを損なうことなく、機能のごく一部を開示するだけでよい。
また、各個人が提供すべき適切な属性を決定するための効率的なシーケンシャルアルゴリズムも提供する。
様々な学習課題に対する評価は、個人がユーザ情報の完全なセットを利用するモデルと同じ精度を維持しながら、情報の10%程度を報告できることを示している。
関連論文リスト
- Prompt-based Personality Profiling: Reinforcement Learning for Relevance Filtering [8.20929362102942]
著者プロファイルは、共有するコンテンツを分析して個人の特徴を推測するタスクである。
本稿では,関係のないコンテンツと関係のないコンテンツとを区別することを目的とした著者プロファイリング手法を提案し,それに続いて,関連データのみを用いて実際のユーザプロファイリングを行う。
2つのTwitterコーパスにおける5つの人格特性予測手法の評価を行った。
論文 参考訳(メタデータ) (2024-09-06T08:43:10Z) - Personalized Privacy Auditing and Optimization at Test Time [44.15285550981899]
本稿では、モデルがテスト時に正確な予測を返却するために、入力機能を必要とするかどうかを問う。
パーソナライズされた設定の下では、各個人は最終的な決定に影響を与えることなく、これらの機能の小さなサブセットだけをリリースする必要があるかもしれない。
複数の学習課題に対する評価は、個人が同じレベルの精度を確保するために、情報の10%しか報告できないことを示している。
論文 参考訳(メタデータ) (2023-01-31T20:16:59Z) - Can Foundation Models Help Us Achieve Perfect Secrecy? [11.073539163281524]
機械学習の鍵となる約束は、ユーザーをパーソナルなタスクで支援する能力である。
金の標準プライバシー保護システムは、完全な機密性を満たすだろう。
しかし、プライバシーと品質は、個人業務のために既存のシステムでは緊張しているようだ。
論文 参考訳(メタデータ) (2022-05-27T02:32:26Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。