論文の概要: Linear Classifiers in Mixed Constant Curvature Spaces
- arxiv url: http://arxiv.org/abs/2102.10204v1
- Date: Fri, 19 Feb 2021 23:29:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:16:31.771525
- Title: Linear Classifiers in Mixed Constant Curvature Spaces
- Title(参考訳): 混合定数曲率空間における線形分類器
- Authors: Puoya Tabaghi, Eli Chien, Chao Pan, Olgica Milenkovi\'c
- Abstract要約: 我々は、ユークリッド空間、球面空間、双曲空間の混合である積空間形式の線形分類の問題に対処する。
我々は、$d$-次元定数曲率空間の線形分類子が正確に$d+1$点を粉砕できることを証明した。
新規なパーセプトロン分類アルゴリズムを記述し、厳密な収束結果を確立する。
- 参考スコア(独自算出の注目度): 40.82908295137667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding methods for mixed-curvature spaces are powerful techniques for
low-distortion and low-dimensional representation of complex data structures.
Nevertheless, little is known regarding downstream learning and optimization in
the embedding space. Here, we address for the first time the problem of linear
classification in a product space form -- a mix of Euclidean, spherical, and
hyperbolic spaces with different dimensions. First, we revisit the definition
of a linear classifier on a Riemannian manifold by using geodesics and
Riemannian metrics which generalize the notions of straight lines and inner
products in vector spaces, respectively. Second, we prove that linear
classifiers in $d$-dimensional constant curvature spaces can shatter exactly
$d+1$ points: Hence, Euclidean, hyperbolic and spherical classifiers have the
same expressive power. Third, we formalize linear classifiers in product space
forms, describe a novel perceptron classification algorithm, and establish
rigorous convergence results. We support our theoretical findings with
simulation results on several datasets, including synthetic data, MNIST and
Omniglot. Our results reveal that learning methods applied to small-dimensional
embeddings in product space forms significantly outperform their algorithmic
counterparts in Euclidean spaces.
- Abstract(参考訳): 混合曲率空間の埋め込み法は、複雑なデータ構造の低歪みおよび低次元表現のための強力な技術である。
それでも、下流の学習と埋め込み空間の最適化についてはほとんど知られていない。
ここでは、積空間形式における線型分類の問題 -- 異なる次元のユークリッド空間、球面空間、双曲空間の混合 -- を初めて扱う。
まず、ベクトル空間における直線と内積の概念をそれぞれ一般化する測地線とリーマン計量を用いて、リーマン多様体上の線型分類器の定義を再検討する。
第二に、$d$-次元定数曲率空間の線形分類子が正確に$d+1$点を分解できることを証明している:したがって、ユークリッド、双曲および球状分類子は同じ表現力を有する。
第三に、製品空間形式の線形分類器を形式化し、新しいパーセプトロン分類アルゴリズムを記述し、厳密な収束結果を確立する。
合成データ、MNIST、Omniglotなど、いくつかのデータセットのシミュレーション結果で理論的発見をサポートします。
その結果, 製品空間における微小次元埋め込みに応用した学習手法はユークリッド空間におけるアルゴリズム的手法よりも著しく優れていることがわかった。
関連論文リスト
- Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Fiberwise dimensionality reduction of topologically complex data with
vector bundles [0.0]
本稿では,ベクトルバンドルを用いてトポロジ的に複雑なデータセットをモデル化する。
基底空間は大規模位相であり、ファイバーは局所幾何学である。
これにより、大規模なトポロジーを保ちながら繊維の寸法を小さくすることができる。
論文 参考訳(メタデータ) (2022-06-13T22:53:46Z) - Provably Accurate and Scalable Linear Classifiers in Hyperbolic Spaces [39.71927912296049]
スケーラブルで単純な双曲型線形分類器を学習するための統一的なフレームワークを提案する。
我々のアプローチの要点は、ポアンカーの球体モデルに焦点を合わせ、接空間形式を用いて分類問題を定式化することである。
Poincarの2階と戦略的パーセプトロンの優れた性能は、提案フレームワークが双曲空間における一般的な機械学習問題にまで拡張可能であることを示している。
論文 参考訳(メタデータ) (2022-03-07T21:36:21Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Highly Scalable and Provably Accurate Classification in Poincare Balls [40.82908295137667]
我々は、スケーラブルで単純な双曲型線形分類器を証明可能な性能保証で学習するための統一的なフレームワークを構築した。
提案手法は,新しい双曲型および二階型パーセプトロンアルゴリズムと,双曲型サポートベクトルマシン分類器の効率的かつ高精度な凸最適化設定を含む。
数百万の点からなる合成データセットと、シングルセルRNA-seq式測定、CIFAR10、Fashion-MNIST、mini-ImageNetのような複雑な実世界のデータセットの性能評価を行う。
論文 参考訳(メタデータ) (2021-09-08T16:59:39Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Switch Spaces: Learning Product Spaces with Sparse Gating [48.591045282317424]
製品空間における表現を学習するためのデータ駆動アプローチであるswitch spacesを提案する。
我々は空間の選択、結合、切り替えを学習するスパースゲーティング機構を導入する。
知識グラフの補完と項目レコメンデーションの実験により,提案したスイッチ空間が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2021-02-17T11:06:59Z) - Manifold learning with arbitrary norms [8.433233101044197]
本研究では,アースモーバー距離に基づく多様体学習が,分子形状空間を学習する標準的なユークリッド変種よりも優れていることを示す。
数値シミュレーションにより,アースモーバー距離に基づく多様体学習は,分子形状空間を学習するための標準ユークリッド変種よりも優れていることを示した。
論文 参考訳(メタデータ) (2020-12-28T10:24:30Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。