論文の概要: Answering Private Linear Queries Adaptively using the Common Mechanism
- arxiv url: http://arxiv.org/abs/2212.00135v1
- Date: Wed, 30 Nov 2022 21:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:57:05.415528
- Title: Answering Private Linear Queries Adaptively using the Common Mechanism
- Title(参考訳): 共通メカニズムを用いたプライベートリニアクエリの応答
- Authors: Yingtai Xiao, Guanhong Wang, Danfeng Zhang, Daniel Kifer
- Abstract要約: プライバシ損失予算を無駄にすることなく、M1とM2の選択が可能であるかどうかを考察する。
M* と M1' は M1 と完全に等価である。
- 参考スコア(独自算出の注目度): 15.88222487773077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When analyzing confidential data through a privacy filter, a data scientist
often needs to decide which queries will best support their intended analysis.
For example, an analyst may wish to study noisy two-way marginals in a dataset
produced by a mechanism M1. But, if the data are relatively sparse, the analyst
may choose to examine noisy one-way marginals, produced by a mechanism M2
instead. Since the choice of whether to use M1 or M2 is data-dependent, a
typical differentially private workflow is to first split the privacy loss
budget rho into two parts: rho1 and rho2, then use the first part rho1 to
determine which mechanism to use, and the remainder rho2 to obtain noisy
answers from the chosen mechanism. In a sense, the first step seems wasteful
because it takes away part of the privacy loss budget that could have been used
to make the query answers more accurate.
In this paper, we consider the question of whether the choice between M1 and
M2 can be performed without wasting any privacy loss budget. For linear
queries, we propose a method for decomposing M1 and M2 into three parts: (1) a
mechanism M* that captures their shared information, (2) a mechanism M1' that
captures information that is specific to M1, (3) a mechanism M2' that captures
information that is specific to M2. Running M* and M1' together is completely
equivalent to running M1 (both in terms of query answer accuracy and total
privacy cost rho). Similarly, running M* and M2' together is completely
equivalent to running M2.
Since M* will be used no matter what, the analyst can use its output to
decide whether to subsequently run M1'(thus recreating the analysis supported
by M1) or M2'(recreating the analysis supported by M2), without wasting privacy
loss budget.
- Abstract(参考訳): プライバシフィルタを通じて機密データを分析する場合、データサイエンティストは、意図した分析に最も適したクエリを決定する必要がある。
例えば、アナリストはメカニズムm1によって生成されたデータセットでノイズの多い双方向のマージンを研究したいかもしれない。
しかし、データが比較的疎い場合、アナリストは、M2メカニズムによって生成されるノイズの多い片方向の限界を検査する。
M1 と M2 のどちらを使うかはデータに依存しているため、典型的な微分プライベートワークフローは、まずプライバシ損失予算 rho を rho1 と rho2 に分割し、次に最初の部分 rho1 を使ってどのメカニズムを使うかを決定する。
ある意味で、最初のステップは、クエリの回答をより正確にするために使われた可能性のあるプライバシー損失予算の一部を取り除いたため、無駄に思える。
本稿では,M1 と M2 の選択を,プライバシー損失の予算を無駄にすることなく行うことができるかどうかを考察する。
線形クエリでは,(1)共有情報をキャプチャするメカニズムM*,(2)M1に固有の情報をキャプチャするメカニズムM1,(3)M2に固有の情報をキャプチャするメカニズムM2,の3つに分割する手法を提案する。
m* と m1' を一緒に実行することは、m1 の実行と完全に等価である(クエリ応答精度と総プライバシーコストrhoの両方の観点から)。
同様に、M* と M2' は M2 と完全に等価である。
M*は、何があっても使用されるので、アナリストは、その出力を使用して、その後のM1'(M1がサポートする分析を再生する)かM2'(M2がサポートする分析を再生する)を、プライバシーの損失予算を無駄にすることなく、実行することができる。
関連論文リスト
- Looking Inward: Language Models Can Learn About Themselves by Introspection [7.544957585111317]
イントロスペクションは、その人の現在の精神状態へのアクセスを特権的に許可する。
我々は,イントロスペクションを,トレーニングデータに含まれない,あるいは派生していない知識の獲得と定義する。
本研究では,LLMの微調整によるイントロスペクションについて検討し,その挙動を仮説的シナリオで予測する。
論文 参考訳(メタデータ) (2024-10-17T17:24:10Z) - MMMU-Pro: A More Robust Multi-discipline Multimodal Understanding Benchmark [77.93283927871758]
本稿では,Multi-discipline Multi-modal Understanding and Reasoningベンチマークの頑健なバージョンであるMMMU-Proを紹介する。
MMMU-Proは、マルチモーダルモデルの真の理解と推論能力を厳格に評価する。
論文 参考訳(メタデータ) (2024-09-04T15:31:26Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - Learning Algorithms for Verification of Markov Decision Processes [20.5951492453299]
マルコフ決定過程(MDP)の検証に学習アルゴリズムを適用するための一般的な枠組みを提案する。
提案するフレームワークは,検証における中核的な問題である確率的到達性に重点を置いている。
論文 参考訳(メタデータ) (2024-03-14T08:54:19Z) - Private Query Release via the Johnson-Lindenstrauss Transform [93.20051580730234]
差分プライバシーを持つ統計的クエリに対する回答を解放する新しい手法を提案する。
鍵となる考え方は、クエリの回答を低次元空間にランダムに投影することである。
単純なノイズ付加機構を用いて予測されたクエリに回答し、元の次元まで答えを引き上げます。
論文 参考訳(メタデータ) (2022-08-15T19:19:16Z) - Robust Face Anti-Spoofing with Dual Probabilistic Modeling [49.14353429234298]
本稿では、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えたDPM(Dual Probabilistic Modeling)という統合フレームワークを提案する。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中のFalse Reject'およびFalse Accept'からデータノイズを除去することができる。
論文 参考訳(メタデータ) (2022-04-27T03:44:18Z) - A New Entity Extraction Method Based on Machine Reading Comprehension [4.92025078254413]
本稿では,MRC-I2DP を用いた有効実体抽出モデルを提案する。
提案手法は,テキストペアの各部分の復元を調整するために,ゲート付きアテンション抽出機構を用いている。
また、提案した2次元確率符号化モジュール、TALU関数、マスク機構を使用して、ターゲットの可能なすべてのターゲットの検出を強化する。
論文 参考訳(メタデータ) (2021-08-14T02:11:41Z) - Recurrent Inference Machines as inverse problem solvers for MR
relaxometry [0.0]
本稿では,T1およびT2マッピングの実行にRIM(Recurrent Inference Machines)を用いることを提案する。
RIMは、信号モデルに基づいて反復推論プロセスを学ぶニューラルネットワークフレームワークである。
RIM での推論は Maximum Likelihood Estimator (MLE) の150倍高速である
論文 参考訳(メタデータ) (2021-06-08T16:50:49Z) - Improved Matrix Gaussian Mechanism for Differential Privacy [29.865497421453917]
差分プライバシー(DP)メカニズムは、従来のスカラー値ではなく、行列のような構造データのために開発されている。
本研究は,行列値DPのための改良行列ガウス機構 (IMGM) を提案し,その必要十分条件を$(varepsilon,delta) $-differential privacy とした。
行列値DPの正規ノイズ分布のうち、最適ノイズ分布はi.i.dであることが判明した。
さまざまなモデルとデータセットに関する実験も、IMGMが同じプライバシー保証で最先端のメカニズムよりもはるかに高い有用性をもたらすことを検証しています。
論文 参考訳(メタデータ) (2021-04-30T07:44:53Z) - Self-Teaching Machines to Read and Comprehend with Large-Scale
Multi-Subject Question Answering Data [58.36305373100518]
主観的問合せデータが機械読解作業に有用かどうかは不明である。
大規模多目的多目的質問回答データセットであるExamQAを収集する。
我々は、Web検索エンジンが返す不完全でノイズの多いスニペットを、各質問応答インスタンスの関連するコンテキストとして使用し、弱いラベル付きMRCインスタンスに変換する。
論文 参考訳(メタデータ) (2021-02-01T23:18:58Z) - Learning to Match Distributions for Domain Adaptation [116.14838935146004]
本稿では,ドメイン間分布マッチングを自動的に学習する学習 to Match (L2M)を提案する。
L2Mは、メタネットワークを用いてデータ駆動方式で分布整合損失を学習することにより、誘導バイアスを低減する。
公開データセットの実験は、SOTA法よりもL2Mの方が優れていることを裏付けている。
論文 参考訳(メタデータ) (2020-07-17T03:26:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。