論文の概要: Combining Evidence Across Filtrations
- arxiv url: http://arxiv.org/abs/2402.09698v3
- Date: Sat, 15 Feb 2025 09:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 17:33:36.472932
- Title: Combining Evidence Across Filtrations
- Title(参考訳): フィラティフィケーションにおけるエビデンスの組み合わせ
- Authors: Yo Joong Choe, Aaditya Ramdas,
- Abstract要約: 本稿では,異なるフィルタで構築されたE-プロセスを組み合わせる方法を提案する。
調整器と呼ばれる関数のクラスがフィルタ間で任意のe-プロセスを持ち上げることができることを確かめる。
我々は、調整器を使う必要があるという感覚を形式化する調整器の特性定理を証明した。
- 参考スコア(独自算出の注目度): 29.950578483005998
- License:
- Abstract: In sequential anytime-valid inference, any admissible procedure must be based on e-processes: generalizations of test martingales that quantify the accumulated evidence against a composite null hypothesis at any stopping time. This paper proposes a method for combining e-processes constructed in different filtrations but for the same null. Although e-processes in the same filtration can be combined effortlessly (by averaging), e-processes in different filtrations cannot because their validity in a coarser filtration does not translate to a finer filtration. This issue arises in sequential tests of randomness and independence, as well as in the evaluation of sequential forecasters. We establish that a class of functions called adjusters can lift arbitrary e-processes across filtrations. The result yields a generally applicable "adjust-then-combine" procedure, which we demonstrate on the problem of testing randomness in real-world financial data. Furthermore, we prove a characterization theorem for adjusters that formalizes a sense in which using adjusters is necessary. There are two major implications. First, if we have a powerful e-process in a coarsened filtration, then we readily have a powerful e-process in the original filtration. Second, when we coarsen the filtration to construct an e-process, there is a logarithmic cost to recovering validity in the original filtration.
- Abstract(参考訳): 逐次的かつ有意な推論では、任意の許容手順は e-プロセスに基づいていなければならない: 任意の停止時間における複合ヌル仮説に対する累積的な証拠を定量化するテストマルティンガレの一般化。
本稿では,異なるフィルタで構築されたE-プロセスを組み合わせる方法を提案する。
同じ濾過におけるe-プロセスは(平均化によって)懸命に結合することができるが、粗い濾過におけるその妥当性がより微細な濾過に変換されないため、異なる濾過におけるe-プロセスは不可能である。
この問題は、ランダム性と独立性のシーケンシャルなテスト、およびシーケンシャルな予測器の評価で発生する。
調整器と呼ばれる関数のクラスがフィルタ間で任意のe-プロセスを持ち上げることができることを確かめる。
その結果, 実世界の財務データにおけるランダム性テストの問題点を実証した, 一般に適用可能な"adjust-then-combine"手順が得られた。
さらに、調整器の使用が必要な感覚を形式化する調整器の特性定理を証明した。
主な意味は2つある。
まず、粗い濾過で強力な電子プロセスがあれば、元の濾過ですぐに強力な電子プロセスが得られる。
第二に、電子プロセスを構築するために濾過を粗くすると、元の濾過の妥当性を回復するための対数コストが発生する。
関連論文リスト
- Inverse Particle Filter [16.975704972827305]
認知システムでは、行動が認知反応の主焦点であった被験者の認知過程を研究することが近年強調されている。
本稿では,大域的フィルタリング手法を採用し,逆粒子フィルタ(I-PF)の開発について述べる。
粒子フィルタフレームワークは、任意の後部分布を近似するためにモンテカルロ法(MC)を用いる。
論文 参考訳(メタデータ) (2024-07-23T16:32:38Z) - Filtration learning in exact multi-parameter persistent homology and classification of time-series data [3.193388094899312]
EMPHのフィルタ学習のためのフレームワークを提案する。
フィルタパラメータに対する損失関数の勾配の正確な式を導出する。
論文 参考訳(メタデータ) (2024-06-28T00:25:43Z) - Toward domain generalized pruning by scoring out-of-distribution
importance [19.26591372002258]
フィルタプルーニングは、畳み込みニューラルネットワークの圧縮に広く使われ、デプロイメント段階での計算コストを削減している。
我々は、広範囲にわたる実験実験を行い、フィルタープルーニング後にドメイン内性能を維持できるが、クロスドメイン性能は大幅に低下することを明らかにした。
実験により,同じプルーニング比下では,ベースラインフィルタプルーニング法よりもクロスドメインの一般化性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2022-10-25T07:36:55Z) - Computational Doob's h-transforms for Online Filtering of Discretely
Observed Diffusions [65.74069050283998]
本研究では,Doobの$h$-transformsを近似する計算フレームワークを提案する。
提案手法は、最先端粒子フィルタよりも桁違いに効率的である。
論文 参考訳(メタデータ) (2022-06-07T15:03:05Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Quantile Filtered Imitation Learning [49.11859771578969]
量子フィルタ模倣学習(QFIL)は、オフライン強化学習用に設計されたポリシー改善演算子である。
我々はQFILが機能近似による安全なポリシー改善のステップを提供することを証明した。
QFILはD4RLベンチマークでよく機能します。
論文 参考訳(メタデータ) (2021-12-02T03:08:23Z) - Direct design of biquad filter cascades with deep learning by sampling
random polynomials [5.1118282767275005]
本研究では, 何百万ものランダムフィルタで学習したニューラルネットワークを用いて, フィルタ係数空間に対する目標規模の応答から直接写像を学習する。
提案手法は,所望の応答に対するフィルタ係数の高速かつ高精度な推定を可能にする。
修正Yule-Walkerや勾配降下などの既存手法と比較し,IIRNetが平均的に高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:58:08Z) - Learning Versatile Convolution Filters for Efficient Visual Recognition [125.34595948003745]
本稿では,効率的な畳み込みニューラルネットワーク構築のための多目的フィルタを提案する。
本稿では,ネットワークの複雑性に関する理論的解析を行い,効率的な畳み込み手法を提案する。
ベンチマークデータセットとニューラルネットワークの実験結果は、我々の汎用フィルタが元のフィルタと同等の精度を達成できることを実証している。
論文 参考訳(メタデータ) (2021-09-20T06:07:14Z) - Higher Order Kernel Mean Embeddings to Capture Filtrations of Stochastic
Processes [11.277354787690646]
我々は、KMEの概念を一般化する高階カーネル平均埋め込みの族を紹介する。
我々は,高次最大平均誤差 (MMD) に対する経験的推定器を導出し,整合性を証明した。
我々は,実世界のキャリブレーションと最適な停止問題を解くことができるプロセス上に,普遍カーネル群を構築する。
論文 参考訳(メタデータ) (2021-09-08T12:27:25Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。