論文の概要: Compressive Mahalanobis Metric Learning Adapts to Intrinsic Dimension
- arxiv url: http://arxiv.org/abs/2309.05751v3
- Date: Sat, 13 Apr 2024 16:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 23:47:12.279934
- Title: Compressive Mahalanobis Metric Learning Adapts to Intrinsic Dimension
- Title(参考訳): 内在次元に適応した圧縮的マハラノビス計量学習
- Authors: Efstratios Palias, Ata Kabán,
- Abstract要約: マハラノビス計量を学習する問題を考察し、高次元データ上で低ランクの計量を訓練する代わりに、ランダムに圧縮されたデータを用いて、この縮小された特徴空間におけるフルランクの計量を訓練する。
マハラノビス計量学習の誤差は、データ支持の安定な次元に依存するが、周囲の次元には依存しない理論的な保証を与える。
- 参考スコア(独自算出の注目度): 4.327763441385369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metric learning aims at finding a suitable distance metric over the input space, to improve the performance of distance-based learning algorithms. In high-dimensional settings, it can also serve as dimensionality reduction by imposing a low-rank restriction to the learnt metric. In this paper, we consider the problem of learning a Mahalanobis metric, and instead of training a low-rank metric on high-dimensional data, we use a randomly compressed version of the data to train a full-rank metric in this reduced feature space. We give theoretical guarantees on the error for Mahalanobis metric learning, which depend on the stable dimension of the data support, but not on the ambient dimension. Our bounds make no assumptions aside from i.i.d. data sampling from a bounded support, and automatically tighten when benign geometrical structures are present. An important ingredient is an extension of Gordon's theorem, which may be of independent interest. We also corroborate our findings by numerical experiments.
- Abstract(参考訳): 距離学習は、距離に基づく学習アルゴリズムの性能を向上させるために、入力空間上の適切な距離メトリックを見つけることを目的としている。
高次元設定では、学習した計量に低ランクの制限を課すことで次元の減少を果たすこともできる。
本稿では,マハラノビス計量を学習する問題を考察し,高次元データ上で低ランクメトリックを訓練する代わりに,ランダムに圧縮したデータを用いて,この縮小された特徴空間におけるフルランクメトリックを訓練する。
マハラノビス計量学習の誤差は、データ支持の安定な次元に依存するが、周囲の次元には依存しない理論的な保証を与える。
我々の境界は、有界な支持からのデータサンプリングを除いて仮定をせず、良質な幾何学的構造が存在するときに自動的に締め付ける。
重要な要素はゴードンの定理の拡張であり、これは独立した興味を持つかもしれない。
また, 数値実験により, 結果の相関付けを行った。
関連論文リスト
- Online Adaptive Mahalanobis Distance Estimation [12.105642991340888]
Mahalanobisメトリクスは、$k$-nearestの隣人、$k$-meansのクラスタリング、$k$-mediansのクラスタリングなど、機械学習で広く使用されている。
その重要性にもかかわらず、Mahalanobisメトリクスのアルゴリズムを高速化するためにスケッチ技術を適用するための以前の作業は行われていない。
論文 参考訳(メタデータ) (2023-09-02T22:19:24Z) - Linear Distance Metric Learning with Noisy Labels [7.326930455001404]
たとえデータがノイズであっても、基底真理線型計量は任意の精度で学習可能であることを示す。
損失関数やパラメータの精度を確実に維持できる低ランクモデルに学習モデルを切り換える効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-06-05T18:29:00Z) - Data-driven abstractions via adaptive refinements and a Kantorovich
metric [extended version] [56.94699829208978]
本稿では,動的システムのスマートでスケーラブルな抽象化のための適応的洗練手順を提案する。
最適構造を学ぶために、マルコフ連鎖の間のカントロビッチに着想を得た計量を定義する。
本稿では,従来の線形プログラミング手法よりも計算量が多くなることを示す。
論文 参考訳(メタデータ) (2023-03-30T11:26:40Z) - An evaluation framework for dimensionality reduction through sectional
curvature [59.40521061783166]
本研究は,非教師付き次元減少性能指標を初めて導入することを目的としている。
その実現可能性をテストするために、この測定基準は最もよく使われる次元削減アルゴリズムの性能を評価するために用いられている。
新しいパラメータ化問題インスタンスジェネレータが関数ジェネレータの形式で構築されている。
論文 参考訳(メタデータ) (2023-03-17T11:59:33Z) - Hyperbolic Vision Transformers: Combining Improvements in Metric
Learning [116.13290702262248]
計量学習のための新しい双曲型モデルを提案する。
本手法のコアとなるのは、双曲空間にマッピングされた出力埋め込みを備えた視覚変換器である。
4つのデータセットに6つの異なる定式化を施したモデルの評価を行った。
論文 参考訳(メタデータ) (2022-03-21T09:48:23Z) - Dimensionally Consistent Learning with Buckingham Pi [4.446017969073817]
支配方程式がない場合、次元解析は物理系における洞察を抽出し対称性を見つけるための堅牢な手法である。
本研究では,非次元群を検出するために,可観測データの対称構造と自己相似構造を用いる自動手法を提案する。
我々はバッキンガム・パイの定理を制約として利用する3つのデータ駆動手法を開発した。
論文 参考訳(メタデータ) (2022-02-09T17:58:00Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Supervised Categorical Metric Learning with Schatten p-Norms [10.995886294197412]
そこで我々は,分類データにおける計量学習の問題に対処する手法としてCPML(CPML)を提案する。
我々は、データを表すためにValue Distance Metricを使用し、この表現に基づいて新しい距離を提案する。
次に、新しいメトリクスを効率的に学習する方法を示します。
論文 参考訳(メタデータ) (2020-02-26T01:17:12Z) - Learning Flat Latent Manifolds with VAEs [16.725880610265378]
本稿では、ユークリッド計量がデータポイント間の類似性のプロキシとなる変分自動エンコーダのフレームワークの拡張を提案する。
我々は、変分オートエンコーダで一般的に使用されるコンパクトな以前のものを、最近発表されたより表現力のある階層型に置き換える。
提案手法は,ビデオ追跡ベンチマークを含む,さまざまなデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-02-12T09:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。