論文の概要: Minimax Data Sanitization with Distortion Constraint and Adversarial Inference
- arxiv url: http://arxiv.org/abs/2507.17942v1
- Date: Wed, 23 Jul 2025 21:22:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.623953
- Title: Minimax Data Sanitization with Distortion Constraint and Adversarial Inference
- Title(参考訳): 歪み制約と逆推定による最小値データ衛生化
- Authors: Amirarsalan Moatazedian, Yauhen Yakimenka, Rémi A. Chou, Jörg Kliewer,
- Abstract要約: 本研究では,プライバタイザーがプライベートデータを,認証されたコンストラクタと2人の無許可の敵が観察した衛生バージョンに変換するプライバシー保護データ共有環境について検討する。
本稿では, 民営化, 再構築, 敵を交互に更新するデータ駆動型訓練手法を提案する。
- 参考スコア(独自算出の注目度): 28.511444169443195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a privacy-preserving data-sharing setting where a privatizer transforms private data into a sanitized version observed by an authorized reconstructor and two unauthorized adversaries, each with access to side information correlated with the private data. The reconstructor is evaluated under a distortion function, while each adversary is evaluated using a separate loss function. The privatizer ensures the reconstructor distortion remains below a fixed threshold while maximizing the minimum loss across the two adversaries. This two-adversary setting models cases where individual users cannot reconstruct the data accurately, but their combined side information enables estimation within the distortion threshold. The privatizer maximizes individual loss while permitting accurate reconstruction only through collaboration. This echoes secret-sharing principles, but with lossy rather than perfect recovery. We frame this as a constrained data-driven minimax optimization problem and propose a data-driven training procedure that alternately updates the privatizer, reconstructor, and adversaries. We also analyze the Gaussian and binary cases as special scenarios where optimal solutions can be obtained. These theoretical optimal results are benchmarks for evaluating the proposed minimax training approach.
- Abstract(参考訳): 本研究では,プライバタイザーがプライベートデータを,認証されたコンストラクタと2つの無許可の敵によって観察された衛生版に変換するプライバシー保護データ共有環境について検討する。
再構成器は歪み関数で評価され、各逆は別個の損失関数で評価される。
プリタタイザは、2つの敵間の最小損失を最大化しながら、コンストラクタの歪みが一定の閾値以下であることを保証する。
この2次元設定モデルでは、個々のユーザが正確にデータを再構成できないが、それらの結合側情報により歪み閾値内での推定が可能となる。
民営化装置は、協調を通してのみ正確な再建を許容しつつ、個人の損失を最大化する。
これは秘密共有の原則に反するが、完全な回復ではなく損失を伴う。
我々は、これを制約付きデータ駆動のミニマックス最適化問題とみなし、プリミタイザー、再構成、敵を交互に更新するデータ駆動トレーニング手順を提案する。
また、最適解が得られる特別なシナリオとしてガウスケースと二項ケースを解析する。
これらの理論的最適結果は、提案したミニマックストレーニングアプローチを評価するためのベンチマークである。
関連論文リスト
- Benchmarking Fraud Detectors on Private Graph Data [70.4654745317714]
現在、多くの種類の不正は、グラフ上で動く自動検出アルゴリズムによって部分的に管理されている。
データ保有者が不正検知器の開発を第三者にアウトソースしようとするシナリオを考察する。
サードパーティは、不正検出をデータ保持者に送信し、これらのアルゴリズムをプライベートデータセットで評価し、その結果を公表する。
本システムに対する現実的なプライバシ攻撃を提案し,評価結果のみに基づいて個人データの匿名化を可能にする。
論文 参考訳(メタデータ) (2025-07-30T03:20:15Z) - Signal Recovery from Random Dot-Product Graphs Under Local Differential Privacy [0.6906005491572401]
我々は、$varepsilon$-edgeローカル差分プライバシーの下でグラフから潜伏情報を復元する問題を考察する。
一般化されたランダムドット積グラフのクラスについて、標準的な局所微分プライバシー機構が潜在位置における特定の幾何学的歪みを誘導することを示す。
民営化グラフの統計的推測手順を適切に調整することにより、潜伏位置の一貫した回復が達成可能であることを示す。
論文 参考訳(メタデータ) (2025-04-24T06:02:02Z) - Personalized Denoising Implicit Feedback for Robust Recommender System [60.719158008403376]
ユーザの個人的損失分布には,正常なインタラクションとノイズの多いインタラクションが明確に区別されていることを示す。
本稿では,ユーザのパーソナライズロス分布であるPLDを用いてDenoiseに対する再サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2025-02-01T07:13:06Z) - Optimal Defenses Against Gradient Reconstruction Attacks [13.728704430883987]
Federated Learning (FL) は、集中型データストレージを使わずに、協調的なモデルトレーニングによってデータ漏洩を防止するように設計されている。
共有勾配から元のトレーニングデータを復元する勾配再構築攻撃には、依然として脆弱である。
論文 参考訳(メタデータ) (2024-11-06T08:22:20Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - On Improving the Composition Privacy Loss in Differential Privacy for Fixed Estimation Error [4.809236881780709]
ユーザが複数のサンプルをコントリビュートできるデータセットの非結合部分集合の統計のプライベートリリースについて検討する。
特に、サンプル平均の$epsilon$-differentially privateリリースとデータセットの非結合部分集合におけるサンプル値のばらつきに焦点を当てる。
当社の主なコントリビューションは,ユーザのコントリビューションの抑制に基づく反復アルゴリズムです。
論文 参考訳(メタデータ) (2024-05-10T06:24:35Z) - Accurate, Explainable, and Private Models: Providing Recourse While
Minimizing Training Data Leakage [10.921553888358375]
本稿では,2つの新しい手法について述べる。
DPM と LR は,相手が推測できることを減らすのに有効である。
論文 参考訳(メタデータ) (2023-08-08T15:38:55Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - Algorithms for bounding contribution for histogram estimation under
user-level privacy [37.406400590568644]
ユーザレベルの差分プライバシー下でのヒストグラム推定の問題点について検討する。
目標は、単一のユーザのすべてのエントリのプライバシを維持することだ。
ヒストグラム推定のための最適なユーザコントリビューションを選択するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-07T04:53:24Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。