論文の概要: Learning with tree tensor networks: complexity estimates and model
selection
- arxiv url: http://arxiv.org/abs/2007.01165v3
- Date: Wed, 19 May 2021 10:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:44:50.263047
- Title: Learning with tree tensor networks: complexity estimates and model
selection
- Title(参考訳): ツリーテンソルネットワークによる学習:複雑性推定とモデル選択
- Authors: Bertrand Michel and Anthony Nouy
- Abstract要約: 経験的リスク最小化フレームワークを用いて,木テンソルネットワークの複雑性に基づくモデル選択法を解析する。
我々の戦略は、ソボレフ空間やベソフ空間を含む幅広い滑らか度クラスに適応するミニマックスであることが示される。
- 参考スコア(独自算出の注目度): 33.10033799230797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tree tensor networks, or tree-based tensor formats, are prominent model
classes for the approximation of high-dimensional functions in computational
and data science. They correspond to sum-product neural networks with a sparse
connectivity associated with a dimension tree and widths given by a tuple of
tensor ranks. The approximation power of these models has been proved to be
(near to) optimal for classical smoothness classes. However, in an empirical
risk minimization framework with a limited number of observations, the
dimension tree and ranks should be selected carefully to balance estimation and
approximation errors. We propose and analyze a complexity-based model selection
method for tree tensor networks in an empirical risk minimization framework and
we analyze its performance over a wide range of smoothness classes. Given a
family of model classes associated with different trees, ranks, tensor product
feature spaces and sparsity patterns for sparse tensor networks, a model is
selected (\`a la Barron, Birg\'e, Massart) by minimizing a penalized empirical
risk, with a penalty depending on the complexity of the model class and derived
from estimates of the metric entropy of tree tensor networks. This choice of
penalty yields a risk bound for the selected predictor. In a least-squares
setting, after deriving fast rates of convergence of the risk, we show that our
strategy is (near to) minimax adaptive to a wide range of smoothness classes
including Sobolev or Besov spaces (with isotropic, anisotropic or mixed
dominating smoothness) and analytic functions. We discuss the role of sparsity
of the tensor network for obtaining optimal performance in several regimes. In
practice, the amplitude of the penalty is calibrated with a slope heuristics
method. Numerical experiments in a least-squares regression setting illustrate
the performance of the strategy.
- Abstract(参考訳): ツリーテンソルネットワーク(ツリーテンソルネットワーク、tree tensor network)は、計算とデータ科学における高次元関数の近似のモデルクラスである。
これらは、次元木とテンソルランクのタプルによって与えられる幅に関連付けられた疎結合の和積ニューラルネットワークに対応する。
これらのモデルの近似力は古典的滑らか度クラスに最適であることが証明されている。
しかし、観測回数が少ない経験的リスク最小化フレームワークでは、推定と近似誤差のバランスをとるために、次元木とランクを慎重に選択する必要がある。
経験的リスク最小化フレームワークを用いて,木テンソルネットワークの複雑性に基づくモデル選択手法を提案し,解析し,その性能を幅広いスムーズなクラスで解析する。
異なる木、ランク、テンソル積特徴空間、スパーステンソルネットワークのスパース性パターンに関連するモデルクラスのファミリーが与えられたとき、ペナルティ化された経験的リスクを最小化し、モデルクラスの複雑さに応じてペナルティを課し、ツリーテンソルネットワークの計量エントロピーの推定からモデルを選択する(\`a la barron, birg\'e, massart)。
このペナルティの選択は、選択された予測者に拘束されるリスクをもたらす。
低二乗の設定では、リスクの収束率を高速に導出した後、ソボレフ空間やベッソフ空間(等方性、異方性、または混合ドーピング滑らか性を含む)や解析関数を含む幅広い滑らか性クラスに適応する戦略が(ほぼ)ミニマックスであることを示す。
いくつかの制度において最適な性能を得るために,テンソルネットワークのスパーシティが果たす役割について論じる。
実際には、ペナルティの振幅は傾斜ヒューリスティックス法で校正される。
最小二乗回帰設定における数値実験は、戦略の性能を示す。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Approximation with Tensor Networks. Part II: Approximation Rates for
Smoothness Classes [0.0]
滑らか度クラスから関数のテンソルネットワーク(TN)による近似について検討する。
結果として得られるツールは、フィードフォワードニューラルネットワークとして解釈できる。
任意のベソフ関数は最適あるいはほぼ最適な速度で近似できることを示す。
論文 参考訳(メタデータ) (2020-06-30T21:57:42Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。