論文の概要: Golden Ratio-Based Sufficient Dimension Reduction
- arxiv url: http://arxiv.org/abs/2410.19300v1
- Date: Fri, 25 Oct 2024 04:15:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:33:34.728853
- Title: Golden Ratio-Based Sufficient Dimension Reduction
- Title(参考訳): ゴールデン比に基づく十分次元削減
- Authors: Wenjing Yang, Yuhong Yang,
- Abstract要約: 本稿では,ニューラルネットワークを用いた十分次元削減手法を提案する。
構造次元を効果的に特定し、中心空間をうまく推定する。
これは、バロンクラスの関数に対するニューラルネットワークの近似能力の利点を生かし、計算コストの削減につながる。
- 参考スコア(独自算出の注目度): 6.184279198087624
- License:
- Abstract: Many machine learning applications deal with high dimensional data. To make computations feasible and learning more efficient, it is often desirable to reduce the dimensionality of the input variables by finding linear combinations of the predictors that can retain as much original information as possible in the relationship between the response and the original predictors. We propose a neural network based sufficient dimension reduction method that not only identifies the structural dimension effectively, but also estimates the central space well. It takes advantages of approximation capabilities of neural networks for functions in Barron classes and leads to reduced computation cost compared to other dimension reduction methods in the literature. Additionally, the framework can be extended to fit practical dimension reduction, making the methodology more applicable in practical settings.
- Abstract(参考訳): 多くの機械学習アプリケーションは高次元データを扱う。
計算をより効率的にし、学習するためには、応答と元の予測器の関係において可能な限り多くの原情報を保持することができる予測器の線形結合を見出すことにより、入力変数の次元を小さくすることが望ましいことが多い。
本稿では, 構造次元を効果的に同定するだけでなく, 中心空間を適切に推定するニューラルネットワークに基づく十分次元削減手法を提案する。
これは、バロンクラスの関数に対するニューラルネットワークの近似能力の利点を生かし、文献における他の次元還元法と比較して計算コストを低減させる。
さらに、このフレームワークは実践的な次元削減に適合するように拡張することができ、方法論を実践的な設定でより適用することができる。
関連論文リスト
- Approximated Likelihood Ratio: A Forward-Only and Parallel Framework for Boosting Neural Network Training [30.452060061499523]
本稿では、勾配推定における計算およびメモリ要求を軽減するために、LR法を近似する手法を提案する。
ニューラルネットワークトレーニングにおける近似手法の有効性を実験により実証した。
論文 参考訳(メタデータ) (2024-03-18T23:23:50Z) - Nonlinear functional regression by functional deep neural network with
kernel embedding [20.306390874610635]
本稿では,効率的かつ完全なデータ依存型次元減少法を備えた機能的ディープニューラルネットワークを提案する。
機能ネットのアーキテクチャは、カーネル埋め込みステップ、プロジェクションステップ、予測のための深いReLUニューラルネットワークで構成される。
スムーズなカーネル埋め込みを利用することで、我々の関数ネットは離散化不変であり、効率的で、頑健でノイズの多い観測が可能となる。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Large-Scale OD Matrix Estimation with A Deep Learning Method [70.78575952309023]
提案手法は,ディープラーニングと数値最適化アルゴリズムを統合し,行列構造を推論し,数値最適化を導出する。
大規模合成データセットを用いて,提案手法の優れた一般化性能を実証するために実験を行った。
論文 参考訳(メタデータ) (2023-10-09T14:30:06Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - DimenFix: A novel meta-dimensionality reduction method for feature
preservation [64.0476282000118]
そこで我々は, グラデーション・ディフレッシブなプロセスを含む任意の基本次元還元法で操作できる新しいメタメソド, DimenFixを提案する。
DimenFixは、ディメンタリティの削減と見なされるさまざまな機能の重要性をユーザが定義できるようにすることで、与えられたデータセットを視覚化し、理解する新たな可能性を生み出します。
論文 参考訳(メタデータ) (2022-11-30T05:35:22Z) - Nonlinear Sufficient Dimension Reduction with a Stochastic Neural
Network [9.173528450234906]
本稿では,大規模データに対する十分な次元削減のための新しいタイプのニューラルネットワークを提案する。
提案したニューラルネットワークは、適応的勾配勾配連鎖モンテカルロアルゴリズムを用いて訓練される。
提案手法は,既存の最先端の十分次元削減手法と良好に比較できることを示す。
論文 参考訳(メタデータ) (2022-10-09T20:56:57Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Joint Dimensionality Reduction for Separable Embedding Estimation [43.22422640265388]
異なるソースからのデータの低次元埋め込みは、機械学習、マルチメディア情報検索、バイオインフォマティクスにおいて重要な役割を果たす。
異なるモダリティのデータや異なる種類の実体からのデータを表す2つの特徴ベクトルに対して,線形埋め込みを共同で学習する,教師付き次元還元法を提案する。
提案手法は,他の次元減少法と比較し,遺伝子・退化関連を予測するための両線形回帰の最先端手法と比較した。
論文 参考訳(メタデータ) (2021-01-14T08:48:37Z) - Relative gradient optimization of the Jacobian term in unsupervised deep
learning [9.385902422987677]
データを正しく記述した表現的確率モデルを学習することは、機械学習におけるユビキタスな問題である。
このタスクには深度モデルが広く使用されているが、その最大可能性に基づくトレーニングでは、ジャコビアンの対数行列式を推定する必要がある。
このようなニューラルネットワークの正確なトレーニングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。