論文の概要: Survey on Algorithms for multi-index models
- arxiv url: http://arxiv.org/abs/2504.05426v1
- Date: Mon, 07 Apr 2025 18:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:55.316614
- Title: Survey on Algorithms for multi-index models
- Title(参考訳): マルチインデックスモデルのためのアルゴリズムの検討
- Authors: Joan Bruna, Daniel Hsu,
- Abstract要約: マルチインデックスモデルを用いてインデックス空間を推定するアルゴリズムに関する文献をレビューする。
主な焦点は、ガウス空間における計算効率のよい(多項式時間)アルゴリズム、これらの方法によって一貫性が保証される仮定、およびそれらのサンプル複雑性である。
- 参考スコア(独自算出の注目度): 45.143425167349314
- License:
- Abstract: We review the literature on algorithms for estimating the index space in a multi-index model. The primary focus is on computationally efficient (polynomial-time) algorithms in Gaussian space, the assumptions under which consistency is guaranteed by these methods, and their sample complexity. In many cases, a gap is observed between the sample complexity of the best known computationally efficient methods and the information-theoretical minimum. We also review algorithms based on estimating the span of gradients using nonparametric methods, and algorithms based on fitting neural networks using gradient descent
- Abstract(参考訳): マルチインデックスモデルを用いてインデックス空間を推定するアルゴリズムに関する文献をレビューする。
主な焦点は、ガウス空間における計算効率のよい(多項式時間)アルゴリズム、これらの方法によって一貫性が保証される仮定、およびそれらのサンプル複雑性である。
多くの場合、最もよく知られた計算効率の良い手法のサンプル複雑性と情報理論の最小値とのギャップが観察される。
また、非パラメトリック手法による勾配幅の推定に基づくアルゴリズムや、勾配降下を用いたニューラルネットワークの適合に基づくアルゴリズムについても検討する。
関連論文リスト
- Efficient Numerical Algorithm for Large-Scale Damped Natural Gradient
Descent [7.368877979221163]
本研究では,パラメータ数が利用可能なサンプル数を大幅に上回る大規模シナリオにおいて,減衰したフィッシャー行列を効率的に解くアルゴリズムを提案する。
アルゴリズムはColesky分解に基づいており、一般に適用可能である。ベンチマークの結果、既存の手法よりもかなり高速であることが示されている。
論文 参考訳(メタデータ) (2023-10-26T16:46:13Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Deep learning numerical methods for high-dimensional fully nonlinear
PIDEs and coupled FBSDEs with jumps [26.28912742740653]
高次元放物型積分微分方程式(PIDE)を解くためのディープラーニングアルゴリズムを提案する。
ジャンプ拡散過程はブラウン運動と独立補償ポアソンランダム測度によって導出される。
この深層学習アルゴリズムの誤差推定を導出するために,マルコビアンの収束,オイラー時間離散化の誤差境界,および深層学習アルゴリズムのシミュレーション誤差について検討した。
論文 参考訳(メタデータ) (2023-01-30T13:55:42Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Benchmarking Simulation-Based Inference [5.3898004059026325]
確率的モデリングの最近の進歩は、確率の数値的評価を必要としないシミュレーションに基づく推論アルゴリズムを多数もたらした。
推論タスクと適切なパフォーマンス指標を備えたベンチマークを,アルゴリズムの初期選択とともに提供する。
性能指標の選択は重要であり、最先端のアルゴリズムでさえ改善の余地があり、逐次推定によりサンプリング効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-01-12T18:31:22Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z) - Enhancing accuracy of deep learning algorithms by training with
low-discrepancy sequences [15.2292571922932]
トレーニングセットとして低差分シーケンスに基づく深層教師付き学習アルゴリズムを提案する。
提案アルゴリズムは, 適度な高次元の問題に対して, 標準的なディープラーニングアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-26T08:14:00Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。