論文の概要: Combining Evidence Across Filtrations Using Adjusters
- arxiv url: http://arxiv.org/abs/2402.09698v2
- Date: Tue, 28 May 2024 07:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 01:28:38.402018
- Title: Combining Evidence Across Filtrations Using Adjusters
- Title(参考訳): 調整器を用いたフィルタ間のエビデンスの組み合わせ
- Authors: Yo Joong Choe, Aaditya Ramdas,
- Abstract要約: 本稿では,異なる情報集合(フィルタ)を用いて構築した電子プロセスを同一のnullに対して組み合わせる手法について検討する。
まず、調整器と呼ばれる関数のクラスが、粗いフィルターからより微細なフィルターにEプロセスを持ち上げることができることを証明します。
- 参考スコア(独自算出の注目度): 29.950578483005998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In anytime-valid sequential inference, it is known that any admissible procedure must be based on e-processes, which are composite generalizations of test martingales that quantify the accumulated evidence against a composite null hypothesis at any arbitrary stopping time. This paper studies methods for combining e-processes constructed using different information sets (filtrations) for the same null. Although e-processes constructed in the same filtration can be combined effortlessly (e.g., by averaging), e-processes constructed in different filtrations cannot, because their validity in a coarser filtration does not translate to validity in a finer filtration. This issue arises in exchangeability tests, independence tests, and tests for comparing forecasts with lags. We first establish that a class of functions called adjusters allows us to lift e-processes from a coarser filtration into any finer filtration. We then introduce a characterization theorem for adjusters, formalizing a sense in which using adjusters is necessary. There are two major implications. First, if we have a powerful e-process in a coarsened filtration, then we readily have a powerful e-process in the original filtration. Second, when we coarsen the filtration to construct an e-process, there is an asymptotically logarithmic cost of recovering anytime-validity in the original filtration.
- Abstract(参考訳): 任意の時間価のシーケンシャル推論では、任意の許容手順は、任意の停止時間で合成ヌル仮説に対して蓄積された証拠を定量化するテストマリンタレの複合一般化である電子過程に基づいていなければならないことが知られている。
本稿では,異なる情報集合(フィルタ)を用いて構築した電子プロセスを同一のnullに対して組み合わせる手法について検討する。
同じ濾過で構築された電子プロセスは、(例えば、平均化によって)懸命に結合することができるが、より微細な濾過では有効でないため、異なる濾過で構築された電子プロセスは不可能である。
この問題は、交換可能性テスト、独立性テスト、および予測と遅延を比較するためのテストで発生する。
まず、調整器と呼ばれる関数のクラスが、粗いフィルターからより微細なフィルターにEプロセスを持ち上げることができることを証明します。
次に、アコーダの利用が必要な感覚を定式化するアコーダの特性定理を導入する。
主な意味は2つある。
まず、粗い濾過で強力な電子プロセスがあれば、元の濾過ですぐに強力な電子プロセスが得られる。
第二に、電子プロセスを構築するために濾過を粗くすると、元の濾過の時間的妥当性を回復する漸近的対数コストが生じる。
関連論文リスト
- Filtration learning in exact multi-parameter persistent homology and classification of time-series data [3.193388094899312]
EMPHのフィルタ学習のためのフレームワークを提案する。
フィルタパラメータに対する損失関数の勾配の正確な式を導出する。
論文 参考訳(メタデータ) (2024-06-28T00:25:43Z) - Asymptotic Soft Cluster Pruning for Deep Neural Networks [5.311178623385279]
フィルタプルーニング法は, 選択したフィルタを除去することにより, 構造的疎結合を導入する。
Asymptotic Soft Cluster Pruning と呼ばれる新しいフィルタプルーニング法を提案する。
提案手法は,多くの最先端アルゴリズムと比較して,競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-06-16T13:58:58Z) - Computational Doob's h-transforms for Online Filtering of Discretely
Observed Diffusions [65.74069050283998]
本研究では,Doobの$h$-transformsを近似する計算フレームワークを提案する。
提案手法は、最先端粒子フィルタよりも桁違いに効率的である。
論文 参考訳(メタデータ) (2022-06-07T15:03:05Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Quantile Filtered Imitation Learning [49.11859771578969]
量子フィルタ模倣学習(QFIL)は、オフライン強化学習用に設計されたポリシー改善演算子である。
我々はQFILが機能近似による安全なポリシー改善のステップを提供することを証明した。
QFILはD4RLベンチマークでよく機能します。
論文 参考訳(メタデータ) (2021-12-02T03:08:23Z) - Direct design of biquad filter cascades with deep learning by sampling
random polynomials [5.1118282767275005]
本研究では, 何百万ものランダムフィルタで学習したニューラルネットワークを用いて, フィルタ係数空間に対する目標規模の応答から直接写像を学習する。
提案手法は,所望の応答に対するフィルタ係数の高速かつ高精度な推定を可能にする。
修正Yule-Walkerや勾配降下などの既存手法と比較し,IIRNetが平均的に高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:58:08Z) - Learning Versatile Convolution Filters for Efficient Visual Recognition [125.34595948003745]
本稿では,効率的な畳み込みニューラルネットワーク構築のための多目的フィルタを提案する。
本稿では,ネットワークの複雑性に関する理論的解析を行い,効率的な畳み込み手法を提案する。
ベンチマークデータセットとニューラルネットワークの実験結果は、我々の汎用フィルタが元のフィルタと同等の精度を達成できることを実証している。
論文 参考訳(メタデータ) (2021-09-20T06:07:14Z) - Higher Order Kernel Mean Embeddings to Capture Filtrations of Stochastic
Processes [11.277354787690646]
我々は、KMEの概念を一般化する高階カーネル平均埋め込みの族を紹介する。
我々は,高次最大平均誤差 (MMD) に対する経験的推定器を導出し,整合性を証明した。
我々は,実世界のキャリブレーションと最適な停止問題を解くことができるプロセス上に,普遍カーネル群を構築する。
論文 参考訳(メタデータ) (2021-09-08T12:27:25Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。