論文の概要: Efficient estimation of the ANOVA mean dimension, with an application to
neural net classification
- arxiv url: http://arxiv.org/abs/2007.01281v4
- Date: Wed, 30 Dec 2020 20:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:02:44.222097
- Title: Efficient estimation of the ANOVA mean dimension, with an application to
neural net classification
- Title(参考訳): ANOVA平均次元の効率的な推定とニューラルネット分類への応用
- Authors: Christopher Hoyt and Art B. Owen
- Abstract要約: ブラックボックス関数の$d$変数の平均次元は、$d$ Sobol'のインデックスの和として記述される。
筆者らは, ウインド・階段と呼ばれるギブス・サンプルラー, ベースラインから各変数を一度に変化させるラジアル・サンプルラー, 関数評価を再利用しないナイーブ・サンプルラーを比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The mean dimension of a black box function of $d$ variables is a convenient
way to summarize the extent to which it is dominated by high or low order
interactions. It is expressed in terms of $2^d-1$ variance components but it
can be written as the sum of $d$ Sobol' indices that can be estimated by leave
one out methods. We compare the variance of these leave one out methods: a
Gibbs sampler called winding stairs, a radial sampler that changes each
variable one at a time from a baseline, and a naive sampler that never reuses
function evaluations and so costs about double the other methods. For an
additive function the radial and winding stairs are most efficient. For a
multiplicative function the naive method can easily be most efficient if the
factors have high kurtosis. As an illustration we consider the mean dimension
of a neural network classifier of digits from the MNIST data set. The
classifier is a function of $784$ pixels. For that problem, winding stairs is
the best algorithm. We find that inputs to the final softmax layer have mean
dimensions ranging from $1.35$ to $2.0$.
- Abstract(参考訳): ブラックボックス関数の平均次元は$d$変数であり、高階または低階の相互作用によって支配される範囲を要約するのに便利な方法である。
2^d-1$分散成分の項で表されるが、$d$ Sobol'の指標の和として書くことができ、これは1つのアウトメソッドから推定できる。
筆者らは, ウインド・階段と呼ばれるギブス・サンプルラー, ベースラインから各変数を一度に変化させるラジアル・サンプルラー, 関数評価を再利用しないナイーブ・サンプルラーなどを比較した。
加法関数では、半径と巻く階段が最も効率的である。
乗算関数の場合、因子が高いクルトシスを持つ場合、ナイーブ法は最も効率的である。
図示として、MNISTデータセットからの桁のニューラルネットワーク分類器の平均次元について考察する。
この分類器は784ドルのピクセルの関数だ。
そのため、階段を巻くのが最適なアルゴリズムです。
最終的なsoftmax層への入力は、平均寸法が1.35$から2.0$であることがわかった。
関連論文リスト
- Scalable 3D Registration via Truncated Entry-wise Absolute Residuals [65.04922801371363]
3ドルの登録アプローチでは、1000万ドル(107ドル)以上のポイントペアを、99%以上のランダムなアウトレイアで処理することができる。
我々はこの手法をTEARと呼び、Trncated Entry-wise Absolute Residualsを演算するoutlier-robust損失を最小限にする。
論文 参考訳(メタデータ) (2024-04-01T04:43:39Z) - Near-Optimal Mean Estimation with Unknown, Heteroskedastic Variances [15.990720051907864]
Subset-of-Signalsモデルはヘテロスケダティック平均推定のベンチマークとして機能する。
我々のアルゴリズムは、このオープンな問題を対数的要因に分解する。
たとえ$d=2$であっても、我々の手法は各サンプルのばらつきを知るのに匹敵するレートを可能にします。
論文 参考訳(メタデータ) (2023-12-05T01:13:10Z) - Solving multiscale elliptic problems by sparse radial basis function
neural networks [3.5297361401370044]
楕円偏微分方程式 (PDE) を多スケール係数で解くために, スパースラジアル基底関数ニューラルネットワーク法を提案する。
深層混合残差法に着想を得て,2次問題を1次システムに書き換え,複数の放射基底関数ニューラルネットワーク(RBFNN)を用いて未知の関数を近似する。
提案手法の精度と有効性は,1次元から3次元までのスケール分離,不連続性,複数スケールのマルチスケール問題の集合を通して実証される。
論文 参考訳(メタデータ) (2023-09-01T15:11:34Z) - On Orderings of Probability Vectors and Unsupervised Performance
Estimation [6.2163687973613495]
Linfty$ノルムは分類問題に最も適したスコア関数であることを示す。
我々は、よく知られたNLPデータセットの実験を行い、異なるスコア関数の性能を精査する。
論文 参考訳(メタデータ) (2023-06-16T20:03:16Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Fundamental tradeoffs between memorization and robustness in random
features and neural tangent regimes [15.76663241036412]
モデルがトレーニングのごく一部を記憶している場合、そのソボレフ・セミノルムは低い有界であることを示す。
実験によって初めて、(iv)ミンノルム補間器の堅牢性における多重発色現象が明らかになった。
論文 参考訳(メタデータ) (2021-06-04T17:52:50Z) - Variance-Aware Confidence Set: Variance-Dependent Bound for Linear
Bandits and Horizon-Free Bound for Linear Mixture MDP [76.94328400919836]
線形バンドイットと線形混合決定プロセス(mdp)に対する分散認識信頼セットの構築方法を示す。
線形バンドイットに対しては、$d を特徴次元とする$widetildeo(mathrmpoly(d)sqrt1 + sum_i=1ksigma_i2) が成り立つ。
線形混合 MDP に対し、$widetildeO(mathrmpoly(d)sqrtK)$ regret bound を得る。
論文 参考訳(メタデータ) (2021-01-29T18:57:52Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - FANOK: Knockoffs in Linear Time [73.5154025911318]
本稿では,ガウスモデル-Xノックオフを効率的に実装し,大規模特徴選択問題における誤発見率を制御するアルゴリズムについて述べる。
当社のメソッドは、最大50,000ドルという問題でテストしています。
論文 参考訳(メタデータ) (2020-06-15T21:55:34Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。