論文の概要: Bayesian Adversarial Privacy
- arxiv url: http://arxiv.org/abs/2603.04199v1
- Date: Wed, 04 Mar 2026 15:46:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.383607
- Title: Bayesian Adversarial Privacy
- Title(参考訳): Bayesian Adversarial Privacy
- Authors: Cameron Bell, Timothy Johnston, Antoine Luciano, Christian P Robert,
- Abstract要約: この研究は、文脈的かつ特異的な、新しい定量的なプライバシー概念を導入している。
私たちは、広く使われている差分プライバシーのフレームワークよりも、より意味のあるプライバシーの概念を提供すると論じています。
- 参考スコア(独自算出の注目度): 0.048998185508205734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Theoretical and applied research into privacy encompasses an incredibly broad swathe of differing approaches, emphasis and aims. This work introduces a new quantitative notion of privacy that is both contextual and specific. We argue that it provides a more meaningful notion of privacy than the widely utilised framework of differential privacy and a more explicit and rigorous formulation than what is commonly used in statistical disclosure theory. Our definition relies on concepts inherent to standard Bayesian decision theory, while departing from it in several important respects. In particular, the party controlling the release of sensitive information should make disclosure decisions from the prior viewpoint, rather than conditional on the data, even when the data is itself observed. Illuminating toy examples and computational methods are discussed in high detail in order to highlight the specificities of the method.
- Abstract(参考訳): プライバシーに関する理論的および応用的な研究は、異なるアプローチ、重点、目的の信じられないほど広範囲に及んでいる。
この研究は、文脈的かつ特異的な、新しい定量的なプライバシー概念を導入している。
これは、広く使われている差分プライバシーの枠組みよりも、より意味のあるプライバシー概念を提供し、統計開示理論で一般的に使われているものよりも、より明確で厳密な定式化を提供する、と我々は主張する。
我々の定義は、標準的なベイズ決定理論に固有の概念に依存しているが、いくつかの重要な点においてそれから離れている。
特に、機密情報の公開を統制する当事者は、データ自体が観察されている場合でも、データに対して条件付きではなく、事前の視点で開示決定を行うべきである。
本手法の具体性を明らかにするため,玩具の例と計算手法を詳細に検討した。
関連論文リスト
- Setting $\varepsilon$ is not the Issue in Differential Privacy [7.347270525437453]
プライバシー予算を解釈するいわゆる問題は、ディファレンシャル・プライバシの広く採用される大きな障害としてしばしば提示される。
プライバシー予算の解釈の難しさは、差分プライバシーの定義自体に起因していないと我々は主張する。
我々は、現在の研究状況を考えると、プライバシーリスクを推定するための健全な手法は、差分プライバシーフレームワーク内で表現可能であるべきだと主張している。
論文 参考訳(メタデータ) (2025-11-09T10:03:45Z) - An information theorist's tour of differential privacy [15.893041475103765]
差分プライバシーは 確率分布の違いでリスクを測る
微分プライベートアルゴリズムは、基礎となるデータと解析の出力の間のチャネルである。
論文 参考訳(メタデータ) (2025-10-11T18:54:05Z) - Differentially Private Random Feature Model [47.35176457481132]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。