論文の概要: PAPRIKA: Private Online False Discovery Rate Control
- arxiv url: http://arxiv.org/abs/2002.12321v2
- Date: Wed, 21 Oct 2020 03:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 08:30:51.500015
- Title: PAPRIKA: Private Online False Discovery Rate Control
- Title(参考訳): PAPRIKA: プライベートオンライン偽発見率制御
- Authors: Wanrong Zhang, Gautam Kamath, Rachel Cummings
- Abstract要約: サンプルの差分プライバシーの制約の下で, 仮説テストにおけるFalse Discovery Rate (FDR) の制御について検討した。
我々は、非プライベートなオンラインFDR制御における最先端の結果に基づく新しいプライベートアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 27.698099204682105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In hypothesis testing, a false discovery occurs when a hypothesis is
incorrectly rejected due to noise in the sample. When adaptively testing
multiple hypotheses, the probability of a false discovery increases as more
tests are performed. Thus the problem of False Discovery Rate (FDR) control is
to find a procedure for testing multiple hypotheses that accounts for this
effect in determining the set of hypotheses to reject. The goal is to minimize
the number (or fraction) of false discoveries, while maintaining a high true
positive rate (i.e., correct discoveries).
In this work, we study False Discovery Rate (FDR) control in multiple
hypothesis testing under the constraint of differential privacy for the sample.
Unlike previous work in this direction, we focus on the online setting, meaning
that a decision about each hypothesis must be made immediately after the test
is performed, rather than waiting for the output of all tests as in the offline
setting. We provide new private algorithms based on state-of-the-art results in
non-private online FDR control. Our algorithms have strong provable guarantees
for privacy and statistical performance as measured by FDR and power. We also
provide experimental results to demonstrate the efficacy of our algorithms in a
variety of data environments.
- Abstract(参考訳): 仮説テストでは、仮説がサンプルのノイズのために誤って却下されたときに誤った発見が起こる。
複数の仮説を適応的にテストすると、より多くのテストが行われると偽発見の確率が増加する。
したがって、偽発見率(FDR)制御の問題は、拒絶する仮説の集合を決定する際にこの効果を考慮に入れた複数の仮説をテストする手順を見つけることである。
目標は偽発見の数(または分数)を最小限に抑えつつ、高い真正率(すなわち正しい発見)を維持することである。
本研究では,サンプルの差分プライバシーの制約下での複数の仮説テストにおいて,偽発見率(fdr)制御について検討する。
この方向の以前の作業とは異なり、オンライン設定に焦点を当てており、オフラインの設定のように全てのテストの出力を待つのではなく、テストが実行された直後に各仮説に関する決定をしなければならない。
我々は、非プライベートオンラインFDR制御における最先端結果に基づく新しいプライベートアルゴリズムを提供する。
われわれのアルゴリズムは、FDRとパワーによって測定されたプライバシーと統計性能の保証が強い。
また,様々なデータ環境におけるアルゴリズムの有効性を示す実験結果も提供する。
関連論文リスト
- Minimax Optimal Two-Sample Testing under Local Differential Privacy [3.3317825075368908]
ローカルディファレンシャルプライバシ(LDP)の下でのプライベート2サンプルテストにおけるプライバシと統計ユーティリティのトレードオフについて検討する。
本稿では,Laplace,離散Laplace,GoogleのRAPPORなど,実用的なプライバシメカニズムを用いたプライベートな置換テストを紹介する。
我々は,ビンニングによる連続データの研究を行い,その一様分離率をH"olderとBesovの滑らか度クラスよりもLDPで検討した。
論文 参考訳(メタデータ) (2024-11-13T22:44:25Z) - PSBD: Prediction Shift Uncertainty Unlocks Backdoor Detection [57.571451139201855]
予測シフトバックドア検出(英: Prediction Shift Backdoor Detection、PSBD)は、ディープニューラルネットワークにおけるバックドアサンプルを識別する新しい手法である。
PSBDは興味深い予測シフト(PS)現象によって動機付けられており、クリーンなデータに対する有害なモデルの予測は、しばしば真のラベルから別のラベルへとシフトする。
PSBDは、モデル推論中にドロップアウト層をオン/オフする際の確率値のばらつきである予測シフト不確実性(PSU)を計算することで、バックドアトレーニングサンプルを特定する。
論文 参考訳(メタデータ) (2024-06-09T15:31:00Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Online multiple testing with e-values [37.0397290998274]
科学者は、誤った発見の数を確実にコントロールしながら、できるだけ多くの発見をしたいと考えています。
オンライン設定におけるFDR制御の以前の方法は、各仮説のテスト統計の間に特定の依存構造が存在すると仮定した場合に、アルゴリズムの定式化に焦点が当てられていた。
我々のアルゴリズムであるe-LONDは、任意の、おそらく未知の依存下でFDR制御を提供する。
論文 参考訳(メタデータ) (2023-11-10T22:14:47Z) - Sequential Predictive Two-Sample and Independence Testing [114.4130718687858]
逐次的非パラメトリック2サンプルテストと独立テストの問題点について検討する。
私たちは賭けによる(非パラメトリックな)テストの原則に基づいています。
論文 参考訳(メタデータ) (2023-04-29T01:30:33Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Private Sequential Hypothesis Testing for Statisticians: Privacy, Error
Rates, and Sample Size [24.149533870085175]
我々は、Renyi差分プライバシーとして知られる、差分プライバシーのわずかな変種の下で、シーケンシャル仮説テスト問題を研究する。
我々は,Wald's Sequential Probability Ratio Test (SPRT)に基づく新たなプライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-10T04:15:50Z) - SAFFRON and LORD Ensure Online Control of the False Discovery Rate Under
Positive Dependence [1.4213973379473654]
最も人気のあるオンライン手法には、アルファ投資、LORD++(以下、LORD)、SAFFRONなどがある。
これらの3つの手法は、修正された偽発見率(mFDR)のオンライン制御を提供することが示されている。
我々の研究は、SAFFRONとLORDが非負の依存下でFDRのオンライン制御を保証していることを示し、これらの結果を裏付けるものである。
論文 参考訳(メタデータ) (2021-10-15T15:43:24Z) - Online Control of the False Discovery Rate under "Decision Deadlines" [1.4213973379473654]
オンラインテスト手順は、一連の仮説テストを通して偽の発見の程度を制御することを目的としている。
提案手法は,テストの各段階での偽発見率(FDR)と,適応的に選択された停止時間を制御する。
論文 参考訳(メタデータ) (2021-10-04T17:28:09Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。