論文の概要: Learning Linear Symmetries in Data Using Moment Matching
- arxiv url: http://arxiv.org/abs/2204.01213v1
- Date: Mon, 4 Apr 2022 02:47:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 03:33:38.256000
- Title: Learning Linear Symmetries in Data Using Moment Matching
- Title(参考訳): モーメントマッチングを用いたデータの線形対称性の学習
- Authors: Colin Hagemeyer
- Abstract要約: データから直接、そのような対称性を学習する、教師なし、半教師なしの問題を考察する。
最悪の場合、この問題はグラフ自己同型問題と同じくらい難しい。
対称変換において固有ベクトルが固有値 -1 を持つべきものを選択する様々な方法の有効性を理論的および実証的に開発・比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is common in machine learning and statistics to use symmetries derived
from expert knowledge to simplify problems or improve performance, using
methods like data augmentation or penalties. In this paper we consider the
unsupervised and semi-supervised problems of learning such symmetries in a
distribution directly from data in a model-free fashion. We show that in the
worst case this problem is as difficult as the graph automorphism problem.
However, if we restrict to the case where the covariance matrix has unique
eigenvalues, then the eigenvectors will also be eigenvectors of the symmetry
transformation. If we further restrict to finding orthogonal symmetries, then
the eigenvalues will be either be 1 or -1, and the problem reduces to
determining which eigenvectors are which. We develop and compare theoretically
and empirically the effectiveness of different methods of selecting which
eigenvectors should have eigenvalue -1 in the symmetry transformation, and
discuss how to extend this approach to non-orthogonal cases where we have
labels
- Abstract(参考訳): 機械学習や統計学では、専門家の知識から派生した対称性を使用して問題を単純化したり、データ拡張や罰則といった手法を用いてパフォーマンスを向上させることが一般的である。
本稿では,そのような対称性をモデルフリーな方法でデータから直接学習する非教師なし,半教師なしの問題を考える。
最悪の場合、この問題はグラフ自己同型問題と同じくらい難しいことが分かる。
しかし、共分散行列が一意な固有値を持つ場合に制限すると、固有ベクトルもまた対称性変換の固有ベクトルとなる。
直交対称性の発見をさらに制限すると、固有値は 1 または -1 となり、問題はどの固有ベクトルがどれであるかを決定することである。
我々は、対称性変換において固有ベクトルが固有値 -1 を持つべきものを選択するための異なる方法の有効性を理論的および経験的に比較し、このアプローチをラベルを持つ非正方形ケースに拡張する方法について議論する。
関連論文リスト
- Nonlinear SVD with Asymmetric Kernels: feature learning and asymmetric
Nystr\"om method [14.470859959783995]
非対称データは、有向グラフのような実世界で自然に存在する。
本稿では,非対称なカーネルベース学習問題に取り組む。
実験により、非対称なKSVDはメルサー・ケルネルよりも優れた特徴を学習することが示された。
論文 参考訳(メタデータ) (2023-06-12T11:39:34Z) - Inference on eigenvectors of non-symmetric matrices [0.0]
本稿では、固有ベクトルの推論手順を確立するために、タイラー (1981) の対称性条件は必要ないことを主張する。
フルベクターおよび個別仮説に対するウォルドとt-テストの分布理論をそれぞれ確立する。
応用として、有向グラフによって誘導される隣接行列から推定されるボナシック中心性に対する信頼集合を定義する。
論文 参考訳(メタデータ) (2023-03-31T17:48:20Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Degeneracies and symmetry breaking in pseudo-Hermitian matrices [0.0]
擬エルミート行列の固有空間を分類する。
対称性の破れは、複素固有値平面の実軸上の反対種の固有値が成立するときにのみ起こることを示す。
論文 参考訳(メタデータ) (2022-09-14T19:18:53Z) - On confidence intervals for precision matrices and the
eigendecomposition of covariance matrices [20.20416580970697]
本稿では,固定次元の共分散行列の固有ベクトルの個々のエントリに対する信頼性境界の計算に挑戦する。
逆共分散行列、いわゆる精度行列の成分を束縛する手法を導出する。
これらの結果の応用として,精度行列の非ゼロ値のテストを可能にする新しい統計テストを示す。
論文 参考訳(メタデータ) (2022-08-25T10:12:53Z) - Instance-Dependent Label-Noise Learning with Manifold-Regularized
Transition Matrix Estimation [172.81824511381984]
遷移行列 T(x) は、インスタンス依存ノイズ(IDN)の下では特定できない
我々は、T(x) の幾何学について、「より近い2つのインスタンスは、それに対応する遷移行列がより類似している」という仮定を提案する。
本手法は,難解なIDNの下でのラベルノイズ学習において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-06T04:12:01Z) - When Random Tensors meet Random Matrices [50.568841545067144]
本稿では,ガウス雑音を伴う非対称次数-$d$スパイクテンソルモデルについて検討する。
検討したモデルの解析は、等価なスパイクされた対称テクシットブロック-ワイドランダム行列の解析に起因していることを示す。
論文 参考訳(メタデータ) (2021-12-23T04:05:01Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z) - Tackling small eigen-gaps: Fine-grained eigenvector estimation and
inference under heteroscedastic noise [28.637772416856194]
ノイズの観測から、固有ベクトル推定と低ランク行列の推測に2つの根本的な課題が生じる。
未知固有ベクトルに対する推定と不確実性定量化手法を提案する。
未知固有値に対する信頼区間を構築するための最適手順を確立する。
論文 参考訳(メタデータ) (2020-01-14T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。