論文の概要: Learning equivariant tensor functions with applications to sparse vector recovery
- arxiv url: http://arxiv.org/abs/2406.01552v1
- Date: Mon, 3 Jun 2024 17:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 21:51:15.532522
- Title: Learning equivariant tensor functions with applications to sparse vector recovery
- Title(参考訳): 等変テンソル関数の学習と疎ベクトル回復への応用
- Authors: Wilson G. Gregory, Josué Tonelli-Cueto, Nicholas F. Marshall, Andrew S. Lee, Soledad Villar,
- Abstract要約: ローレンツ群とシンプレクティック群の対角作用に関して同変函数に着目する。
これらの特徴付けの背景にある私たちのゴールは、同変機械学習モデルを定義することです。
- 参考スコア(独自算出の注目度): 5.557442038265024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work characterizes equivariant polynomial functions from tuples of tensor inputs to tensor outputs. Loosely motivated by physics, we focus on equivariant functions with respect to the diagonal action of the orthogonal group on tensors. We show how to extend this characterization to other linear algebraic groups, including the Lorentz and symplectic groups. Our goal behind these characterizations is to define equivariant machine learning models. In particular, we focus on the sparse vector estimation problem. This problem has been broadly studied in the theoretical computer science literature, and explicit spectral methods, derived by techniques from sum-of-squares, can be shown to recover sparse vectors under certain assumptions. Our numerical results show that the proposed equivariant machine learning models can learn spectral methods that outperform the best theoretically known spectral methods in some regimes. The experiments also suggest that learned spectral methods can solve the problem in settings that have not yet been theoretically analyzed. This is an example of a promising direction in which theory can inform machine learning models and machine learning models could inform theory.
- Abstract(参考訳): この仕事は、テンソル入力のタプルからテンソル出力への等変多項式関数を特徴づける。
物理学によって極端に動機づけられた我々は、テンソル上の直交群の対角運動に関して同変函数に焦点をあてる。
この特徴付けをローレンツ群やシンプレクティック群を含む他の線型代数群に拡張する方法を示す。
これらの特徴付けの背景にある私たちのゴールは、同変機械学習モデルを定義することです。
特に,スパースベクトル推定問題に着目する。
この問題は理論計算機科学の文献で広く研究されており、二乗和の技法から導かれる明示的なスペクトル法は、特定の仮定の下でスパースベクトルを復元することを示すことができる。
これらの結果から,提案した同変機械学習モデルは,理論上最もよく知られたスペクトル法よりも優れたスペクトル法を学習できることが示唆された。
実験により,まだ理論的に解析されていない環境では,学習スペクトル法がこの問題を解決できることが示唆された。
これは、理論が機械学習モデルや機械学習モデルに情報を伝えることができる有望な方向の例である。
関連論文リスト
- Higher-Rank Irreducible Cartesian Tensors for Equivariant Message Passing [23.754664894759234]
原子学シミュレーションは 化学の進歩に不可欠です
機械学習された原子間ポテンシャルは、計算コストのごく一部でアブイニシアト法と第一原理法と同等の精度を達成する。
論文 参考訳(メタデータ) (2024-05-23T07:31:20Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Lorentz group equivariant autoencoders [6.858459233149096]
Lorentz group autoencoder (LGAE)
正規直交ローレンツ群 $mathrmSO+(2,1)$ に対して自己エンコーダモデル同型を開発する。
我々はLHCのジェット機のアーキテクチャと実験結果を示し、いくつかの圧縮、再構成、異常検出の指標に基づいて、グラフと畳み込みニューラルネットワークのベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-12-14T17:19:46Z) - Group-invariant tensor train networks for supervised learning [0.0]
正規行列表現の作用の下で不変なテンソルの基底を構成するための新しい数値アルゴリズムを導入する。
その後、グループ不変テンソルをグループ不変テンソルトレインネットワークに結合し、教師付き機械学習モデルとして使用することができる。
論文 参考訳(メタデータ) (2022-06-30T06:33:08Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Scalars are universal: Gauge-equivariant machine learning, structured
like classical physics [0.0]
物理的な法則のゲージ対称性を尊重するニューラルネットワーク。
これらの対称性の下で同変な普遍近似関数をパラメータ化することは簡単であることを示す。
これらの結果は、古典物理学におけるゲージ不変深層学習モデルが、大問題に対する優れたスケーリングで現在実現可能であることを理論的に証明している。
論文 参考訳(メタデータ) (2021-06-11T20:51:38Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - A Differential Geometry Perspective on Orthogonal Recurrent Models [56.09491978954866]
我々は微分幾何学からのツールと洞察を用いて、直交rnnの新しい視点を提供する。
直交RNNは、発散自由ベクトル場の空間における最適化と見なすことができる。
この観測に動機づけられて、ベクトル場全体の空間にまたがる新しいリカレントモデルの研究を行う。
論文 参考訳(メタデータ) (2021-02-18T19:39:22Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。