論文の概要: Multiresolution Tensor Learning for Efficient and Interpretable Spatial
Analysis
- arxiv url: http://arxiv.org/abs/2002.05578v5
- Date: Fri, 14 Aug 2020 23:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 09:52:18.824317
- Title: Multiresolution Tensor Learning for Efficient and Interpretable Spatial
Analysis
- Title(参考訳): 効率的な空間解析のための多分解能テンソル学習
- Authors: Jung Yeon Park, Kenneth Theo Carr, Stephan Zheng, Yisong Yue, and Rose
Yu
- Abstract要約: 我々は,解釈可能な空間パターンを効率的に学習するための新しいMRTLアルゴリズムを開発した。
2つの実世界のデータセットに適用すると、MRTLは固定解像度アプローチと比較して45倍のスピードアップを示す。
- 参考スコア(独自算出の注目度): 44.89716235936401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient and interpretable spatial analysis is crucial in many fields such
as geology, sports, and climate science. Tensor latent factor models can
describe higher-order correlations for spatial data. However, they are
computationally expensive to train and are sensitive to initialization, leading
to spatially incoherent, uninterpretable results. We develop a novel
Multiresolution Tensor Learning (MRTL) algorithm for efficiently learning
interpretable spatial patterns. MRTL initializes the latent factors from an
approximate full-rank tensor model for improved interpretability and
progressively learns from a coarse resolution to the fine resolution to reduce
computation. We also prove the theoretical convergence and computational
complexity of MRTL. When applied to two real-world datasets, MRTL demonstrates
4~5x speedup compared to a fixed resolution approach while yielding accurate
and interpretable latent factors.
- Abstract(参考訳): 効率的かつ解釈可能な空間分析は、地質学、スポーツ、気候科学など多くの分野で重要である。
テンソル潜在因子モデルは空間データの高次相関を記述することができる。
しかし、訓練には計算コストがかかり、初期化に敏感であり、空間的に不整合で解釈不能な結果をもたらす。
我々は,解釈可能な空間パターンを効率的に学習するための新しいMRTLアルゴリズムを開発した。
MRTLは、解釈性を改善するために近似フルランクテンソルモデルから潜伏因子を初期化し、粗い分解から細かな分解まで徐々に学習し、計算量を削減する。
また,MRTLの理論的収束と計算複雑性も証明した。
2つの実世界のデータセットに適用すると、MRTLは、正確で解釈可能な潜在因子を出力しながら、固定解像度アプローチと比較して4~5倍のスピードアップを示す。
関連論文リスト
- Learning Multi-Index Models with Neural Networks via Mean-Field Langevin Dynamics [21.55547541297847]
平均場ランゲヴィンアルゴリズムを用いて学習した2層ニューラルネットワークを用いて,高次元のマルチインデックスモデルを学習する問題について検討する。
軽度の分布仮定の下では、サンプルと計算の複雑さの両方を制御する実効次元 $d_mathrmeff$ を特徴づける。
論文 参考訳(メタデータ) (2024-08-14T02:13:35Z) - Computational and Statistical Guarantees for Tensor-on-Tensor Regression with Tensor Train Decomposition [27.29463801531576]
TTに基づくToT回帰モデルの理論的およびアルゴリズム的側面について検討する。
制約付き誤差境界に対する解を効率的に見つけるための2つのアルゴリズムを提案する。
我々はIHTとRGDの両方の線形収束速度を確立する。
論文 参考訳(メタデータ) (2024-06-10T03:51:38Z) - Hierarchical Neural Operator Transformer with Learnable Frequency-aware Loss Prior for Arbitrary-scale Super-resolution [13.298472586395276]
科学データの解像度を高めるために,任意のスケールの超解像(SR)法を提案する。
異なるドメインからの多様なデータセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2024-05-20T17:39:29Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Estimating Koopman operators with sketching to provably learn large
scale dynamical systems [37.18243295790146]
クープマン作用素の理論は、複雑な力学系を予測・解析するために非パラメトリック機械学習アルゴリズムを展開できる。
ランダムプロジェクションを用いた異なるカーネルベースのクープマン作用素推定器の効率を向上する。
統計的学習率と計算効率のトレードオフを鋭く評価する非誤り境界を確立する。
論文 参考訳(メタデータ) (2023-06-07T15:30:03Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。