論文の概要: Dynamic Algorithms for Online Multiple Testing
- arxiv url: http://arxiv.org/abs/2010.13953v3
- Date: Wed, 2 Jun 2021 15:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 19:57:50.301998
- Title: Dynamic Algorithms for Online Multiple Testing
- Title(参考訳): オンライン多重テストのための動的アルゴリズム
- Authors: Ziyu Xu, Aaditya Ramdas
- Abstract要約: 我々は、偽発見超越(FDX)を確実に制御するオンライン多重テストのための新しいアルゴリズムを導出する。
我々は, 様々な合成実験において, アルゴリズムが高い出力を達成することを実証した。
SupLORDは、私たちの知る限り、オンライン設定の時間停止時にFDRを制御できる最初の非自明なアルゴリズムです。
- 参考スコア(独自算出の注目度): 38.45810475976042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We derive new algorithms for online multiple testing that provably control
false discovery exceedance (FDX) while achieving orders of magnitude more power
than previous methods. This statistical advance is enabled by the development
of new algorithmic ideas: earlier algorithms are more "static" while our new
ones allow for the dynamical adjustment of testing levels based on the amount
of wealth the algorithm has accumulated. We demonstrate that our algorithms
achieve higher power in a variety of synthetic experiments. We also prove that
SupLORD can provide error control for both FDR and FDX, and controls FDR at
stopping times. Stopping times are particularly important as they permit the
experimenter to end the experiment arbitrarily early while maintaining desired
control of the FDR. SupLORD is the first non-trivial algorithm, to our
knowledge, that can control FDR at stopping times in the online setting.
- Abstract(参考訳): 提案手法は,従来の手法よりも桁違いに高い出力を達成しつつ,偽発見超越(FDX)を確実に制御するオンライン多重テストのための新しいアルゴリズムを導出する。
初期のアルゴリズムはより"静的"であり、新しいアルゴリズムはアルゴリズムが蓄積した富の量に基づいてテストレベルの動的調整を可能にする。
様々な合成実験において,我々のアルゴリズムが高いパワーを発揮できることを実証する。
また、SupLORDはFDRとFDXの両方にエラー制御を提供し、停止時にFDRを制御できることを示す。
停止時間は特に重要であり、実験者はFDRの望ましい制御を維持しながら実験を早期に終了させる。
SupLORDは、私たちの知る限り、オンライン設定の時間停止時にFDRを制御できる最初の非自明なアルゴリズムです。
関連論文リスト
- Online multiple testing with e-values [37.0397290998274]
科学者は、誤った発見の数を確実にコントロールしながら、できるだけ多くの発見をしたいと考えています。
オンライン設定におけるFDR制御の以前の方法は、各仮説のテスト統計の間に特定の依存構造が存在すると仮定した場合に、アルゴリズムの定式化に焦点が当てられていた。
我々のアルゴリズムであるe-LONDは、任意の、おそらく未知の依存下でFDR制御を提供する。
論文 参考訳(メタデータ) (2023-11-10T22:14:47Z) - Iteratively Refined Behavior Regularization for Offline Reinforcement
Learning [57.10922880400715]
本稿では,保守的政策反復に基づく行動規則化を大幅に強化する新しいアルゴリズムを提案する。
行動規則化に使用される基準ポリシーを反復的に洗練することにより、保守的な政策更新は徐々に改善される。
D4RLベンチマークの実験結果から,本手法は従来のタスクのベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-09T07:46:24Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Toward Asymptotic Optimality: Sequential Unsupervised Regression of
Density Ratio for Early Classification [11.470070927586017]
時系列の早期分類に理論的に着想を得た逐次密度比推定(SDRE)アルゴリズムを提案する。
2つの新しいSPRTベースのアルゴリズムであるB2Bsqrt-TANDEMとTANDEMformerは、SDRの正確な教師なし回帰に対する過正規化問題を回避するために設計されている。
論文 参考訳(メタデータ) (2023-02-20T07:20:53Z) - Emphatic Algorithms for Deep Reinforcement Learning [43.17171330951343]
時間差学習アルゴリズムは関数近似とオフポリシーサンプリングを組み合わせると不安定になる。
強調時間差(ETD($lambda$)アルゴリズム)は、TD($lambda$)更新を適切に重み付けすることで線形の場合の収束を保証する。
本稿では,ETD($lambda$)をフォワードビュー・マルチステップ・リターンを用いた一般的な深層強化学習アルゴリズムに適用することにより,性能が低下することを示す。
論文 参考訳(メタデータ) (2021-06-21T12:11:39Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Learning and Planning in Average-Reward Markov Decision Processes [15.586087060535398]
我々は,平均回帰MDPの学習と計画アルゴリズムを導入する。
全てのアルゴリズムは,平均報酬の推定値を更新する際に,従来の誤差よりも時間差誤差を用いている。
論文 参考訳(メタデータ) (2020-06-29T19:03:24Z) - Structure-Adaptive Sequential Testing for Online False Discovery Rate
Control [1.456699007803424]
本研究は、オンライン偽発見率(FDR)制御のための構造適応シーケンシャルテスト(SAST)ルールの新しいクラスを開発する。
我々の提案の重要な要素は、逐次決定における利得と損失を正確に特徴付ける新しいアルファ投資アルゴリズムである。
論文 参考訳(メタデータ) (2020-02-28T23:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。