論文の概要: Testing for Geometric Invariance and Equivariance
- arxiv url: http://arxiv.org/abs/2205.15280v1
- Date: Mon, 30 May 2022 17:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:48:32.171460
- Title: Testing for Geometric Invariance and Equivariance
- Title(参考訳): 幾何学的不変性と等分散の検定
- Authors: Louis G. Christie and John A. D. Aston
- Abstract要約: 本稿では、任意の半群$G$に対して$G$-等分散をテストするためのフレームワークを提案する。
このことは、対称性が事前に知られていないとき、そのようなモデルの使用に自信を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invariant and equivariant models incorporate the symmetry of an object to be
estimated (here non-parametric regression functions $f : \mathcal{X}
\rightarrow \mathbb{R}$). These models perform better (with respect to $L^2$
loss) and are increasingly being used in practice, but encounter problems when
the symmetry is falsely assumed. In this paper we present a framework for
testing for $G$-equivariance for any semi-group $G$. This will give confidence
to the use of such models when the symmetry is not known a priori. These tests
are independent of the model and are computationally quick, so can be easily
used before model fitting to test their validity.
- Abstract(参考訳): 不変および同変モデルは、推定される対象の対称性(非パラメトリック回帰関数 $f : \mathcal{X} \rightarrow \mathbb{R}$)を組み込む。
これらのモデルは($L^2$損失に関して)より良く機能し、実際はますます使われているが、対称性が誤って仮定されたときに問題に遭遇している。
本稿では,任意の半群 $g$ に対して$g$-equivariance をテストするためのフレームワークを提案する。
これは、対称性が事前に分かっていない場合に、そのようなモデルの使用に自信を与える。
これらのテストはモデルとは独立であり、計算速度が速いため、モデル適合前に簡単にテストすることができる。
関連論文リスト
- A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - The Projected Covariance Measure for assumption-lean variable
significance testing [4.2534846356464815]
単純だが一般的なアプローチは、線形モデルを指定し、次に$X$の回帰係数が 0 でないかどうかをテストすることである。
条件付き平均独立性のモデルフリーなnullをテストする問題、すなわち条件付き平均の$Y$$$X$と$Z$は$X$に依存しない。
本稿では,加法モデルやランダムフォレストなど,柔軟な非パラメトリックあるいは機械学習手法を活用可能な,シンプルで汎用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-03T17:55:50Z) - GRASP: A Goodness-of-Fit Test for Classification Learning [8.122270502556374]
標準測度であるにもかかわらず、平均精度は、特徴ベクトル(Y|X$)が与えられたラベルの基本的な条件法則にモデルを適合させるのに失敗する。
我々のフレームワークは条件付き法則$Y|X$のパラメトリックな仮定を一切行わず、クエリを通してのみアクセス可能なブラックボックスオラクルモデルとして扱う。
論文 参考訳(メタデータ) (2022-09-05T17:18:43Z) - Predicting Out-of-Distribution Error with the Projection Norm [87.61489137914693]
射影ノルムは、地上の真理ラベルにアクセスすることなく、分布外データ上でモデルのパフォーマンスを予測する。
対数例で非自明な検出性能を実現するには,プロジェクションノルムが唯一の方法であることがわかった。
論文 参考訳(メタデータ) (2022-02-11T18:58:21Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Minimax Optimal Regression over Sobolev Spaces via Laplacian
Regularization on Neighborhood Graphs [25.597646488273558]
非パラメトリック回帰に対するグラフに基づくアプローチであるラプラシア平滑化の統計的性質について検討する。
ラプラシアン滑らか化が多様体適応であることを証明する。
論文 参考訳(メタデータ) (2021-06-03T01:20:41Z) - On Misspecification in Prediction Problems and Robustness via Improper
Learning [23.64462813525688]
広い種類の損失関数とパラメトリック分布の族に対して、"プロパ"予測子をプレイしたことの後悔は、少なくとも$sqrtgamma n$として境界スケーリングを下げていることが示される。
パラメトリックファミリーの凸体で分布を再生する可能性のあるすべての学習者の家族にしても、これは改善できない例を示します。
論文 参考訳(メタデータ) (2021-01-13T17:54:08Z) - Estimating Stochastic Linear Combination of Non-linear Regressions
Efficiently and Scalably [23.372021234032363]
サブサンプルサイズが大きくなると、推定誤差が過度に犠牲になることを示す。
私たちの知る限りでは、線形テキスト+確率モデルが保証される最初の研究です。
論文 参考訳(メタデータ) (2020-10-19T07:15:38Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - A new regret analysis for Adam-type algorithms [78.825194932103]
理論的には、オンライン凸最適化に対する後悔の保証は、急速に崩壊する$beta_1to0$スケジュールを必要とする。
最適なデータ依存リセット境界を一定の$beta_1$で導出できる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-21T19:19:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。