論文の概要: Declarative Privacy-Preserving Inference Queries
- arxiv url: http://arxiv.org/abs/2401.12393v3
- Date: Tue, 18 Feb 2025 00:19:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:01:35.365896
- Title: Declarative Privacy-Preserving Inference Queries
- Title(参考訳): 宣言的プライバシ保護推論クエリ
- Authors: Hong Guan, Ansh Tiwari, Summer Gautier, Rajan Hari Ambrish, Lixi Zhou, Yancheng Wang, Deepti Gupta, Yingzhen Yang, Chaowei Xiao, Kanchan Chowdhury, Jia Zou,
- Abstract要約: プライバシ保存型推論クエリを自動化するためのエンドツーエンドワークフローを提案する。
提案した宣言型プライバシ保護ワークフローでは,ユーザが“保護方法”ではなく,“保護すべきプライベート情報”を指定することが可能になった。
- 参考スコア(独自算出の注目度): 21.890318255305026
- License:
- Abstract: Detecting inference queries running over personal attributes and protecting such queries from leaking individual information requires tremendous effort from practitioners. To tackle this problem, we propose an end-to-end workflow for automating privacy-preserving inference queries including the detection of subqueries that involve AI/ML model inferences on sensitive attributes. Our proposed novel declarative privacy-preserving workflow allows users to specify "what private information to protect" rather than "how to protect". Under the hood, the system automatically chooses privacy-preserving plans and hyper-parameters.
- Abstract(参考訳): 個人属性上で実行される推論クエリを検出し、個々の情報が漏洩することを防ぐには、実践者による多大な努力が必要だ。
この問題に対処するために、機密属性に対するAI/MLモデル推論を含むサブクエリの検出を含む、プライバシ保護推論クエリを自動化するエンドツーエンドワークフローを提案する。
提案した宣言型プライバシ保護ワークフローでは,ユーザが“保護方法”ではなく,“保護すべきプライベート情報”を指定できるようになった。
内部では、プライバシー保護プランとハイパーパラメータを自動的に選択する。
関連論文リスト
- On the Differential Privacy and Interactivity of Privacy Sandbox Reports [78.21466601986265]
GoogleのPrivacy Sandboxイニシアチブには、プライバシ保護広告機能を実現するAPIが含まれている。
これらのAPIのプライバシを分析するための形式モデルを提供し、それらが正式なDP保証を満たすことを示す。
論文 参考訳(メタデータ) (2024-12-22T08:22:57Z) - Inference Privacy: Properties and Mechanisms [8.471466670802817]
推論プライバシ(IP)は、推論時にユーザのデータに対して厳格なプライバシ保証を提供しながら、モデルと対話することを可能にする。
本稿では,ユーザがカスタマイズ可能な入力摂動と出力摂動という,IPを実現するための2つのメカニズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T20:47:28Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - Words Blending Boxes. Obfuscating Queries in Information Retrieval using Differential Privacy [7.831978389504435]
情報検索システム(IRS)がユーザのプライバシを保護していない場合、システムに送信されたクエリを通じて機密情報を開示することができる。
最近の改良、特にNLPは、テキストを難読化するために差分プライバシーを使用する可能性を示している。
本稿では,クエリ難読化のための新しいプライベートなメカニズムであるWord Blending Boxesを提案する。
論文 参考訳(メタデータ) (2024-05-15T12:51:36Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Privacy-Preserving Language Model Inference with Instance Obfuscation [33.86459812694288]
言語モデル・アズ・ア・サービス(LM)は、開発者や研究者が事前訓練された言語モデルを使用して推論を行うための便利なアクセスを提供する。
入力データとプライベート情報を含む推論結果は、サービスコール中にプレーンテキストとして公開され、プライバシー上の問題が発生する。
本稿では,自然言語理解タスクにおける決定プライバシ問題に対処することに焦点を当てた,インスタンス・オブフルスケート推論(IOI)手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T05:36:54Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。