論文の概要: The Effect of Intrinsic Dimension on Metric Learning under Compression
- arxiv url: http://arxiv.org/abs/2309.05751v2
- Date: Sat, 2 Dec 2023 19:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 22:20:00.993914
- Title: The Effect of Intrinsic Dimension on Metric Learning under Compression
- Title(参考訳): 圧縮下のメトリック学習における内在次元の影響
- Authors: Efstratios Palias, Ata Kab\'an
- Abstract要約: 高次元環境では、メートル法学習は次元減少の役割を果たす。
ランダムに圧縮されたデータについて検討し、そこでフルランクのメトリックをトレーニングする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metric learning aims at finding a suitable distance metric over the input
space, to improve the performance of distance-based learning algorithms. In
high-dimensional settings, metric learning can also play the role of
dimensionality reduction, by imposing a low-rank restriction to the learnt
metric. In this paper, instead of training a low-rank metric on
high-dimensional data, we consider a randomly compressed version of the data,
and train a full-rank metric there. We give theoretical guarantees on the error
of distance-based metric learning, with respect to the random compression,
which do not depend on the ambient dimension. Our bounds do not make any
explicit assumptions, aside from i.i.d. data from a bounded support, and
automatically tighten when benign geometrical structures are present.
Experimental results on both synthetic and real data sets support our
theoretical findings in high-dimensional settings.
- Abstract(参考訳): 距離学習は,距離に基づく学習アルゴリズムの性能向上を目的として,入力空間上の適切な距離測定値を求める。
高次元環境では、学習したメトリックに低ランクの制限を課すことにより、メートル法学習は次元の縮小の役割も果たすことができる。
本稿では,高次元データ上で低ランクメトリックをトレーニングする代わりに,ランダムに圧縮されたデータのバージョンを考え,フルランクメトリックをトレーニングする。
本研究では, 環境次元に依存しないランダム圧縮に関して, 距離に基づく計量学習の誤差を理論的に保証する。
私たちの境界は、有界なサポートからのデータ以外は明示的な仮定を一切行わず、良性幾何学的構造が存在するときに自動的に締め付ける。
合成データと実データの両方の実験結果は、高次元設定における理論的な発見を支持する。
関連論文リスト
- Online Adaptive Mahalanobis Distance Estimation [12.105642991340888]
Mahalanobisメトリクスは、$k$-nearestの隣人、$k$-meansのクラスタリング、$k$-mediansのクラスタリングなど、機械学習で広く使用されている。
その重要性にもかかわらず、Mahalanobisメトリクスのアルゴリズムを高速化するためにスケッチ技術を適用するための以前の作業は行われていない。
論文 参考訳(メタデータ) (2023-09-02T22:19:24Z) - Linear Distance Metric Learning with Noisy Labels [7.326930455001404]
たとえデータがノイズであっても、基底真理線型計量は任意の精度で学習可能であることを示す。
損失関数やパラメータの精度を確実に維持できる低ランクモデルに学習モデルを切り換える効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-06-05T18:29:00Z) - Data-driven abstractions via adaptive refinements and a Kantorovich
metric [extended version] [56.94699829208978]
本稿では,動的システムのスマートでスケーラブルな抽象化のための適応的洗練手順を提案する。
最適構造を学ぶために、マルコフ連鎖の間のカントロビッチに着想を得た計量を定義する。
本稿では,従来の線形プログラミング手法よりも計算量が多くなることを示す。
論文 参考訳(メタデータ) (2023-03-30T11:26:40Z) - An evaluation framework for dimensionality reduction through sectional
curvature [59.40521061783166]
本研究は,非教師付き次元減少性能指標を初めて導入することを目的としている。
その実現可能性をテストするために、この測定基準は最もよく使われる次元削減アルゴリズムの性能を評価するために用いられている。
新しいパラメータ化問題インスタンスジェネレータが関数ジェネレータの形式で構築されている。
論文 参考訳(メタデータ) (2023-03-17T11:59:33Z) - Hyperbolic Vision Transformers: Combining Improvements in Metric
Learning [116.13290702262248]
計量学習のための新しい双曲型モデルを提案する。
本手法のコアとなるのは、双曲空間にマッピングされた出力埋め込みを備えた視覚変換器である。
4つのデータセットに6つの異なる定式化を施したモデルの評価を行った。
論文 参考訳(メタデータ) (2022-03-21T09:48:23Z) - Dimensionally Consistent Learning with Buckingham Pi [4.446017969073817]
支配方程式がない場合、次元解析は物理系における洞察を抽出し対称性を見つけるための堅牢な手法である。
本研究では,非次元群を検出するために,可観測データの対称構造と自己相似構造を用いる自動手法を提案する。
我々はバッキンガム・パイの定理を制約として利用する3つのデータ駆動手法を開発した。
論文 参考訳(メタデータ) (2022-02-09T17:58:00Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Supervised Categorical Metric Learning with Schatten p-Norms [10.995886294197412]
そこで我々は,分類データにおける計量学習の問題に対処する手法としてCPML(CPML)を提案する。
我々は、データを表すためにValue Distance Metricを使用し、この表現に基づいて新しい距離を提案する。
次に、新しいメトリクスを効率的に学習する方法を示します。
論文 参考訳(メタデータ) (2020-02-26T01:17:12Z) - Learning Flat Latent Manifolds with VAEs [16.725880610265378]
本稿では、ユークリッド計量がデータポイント間の類似性のプロキシとなる変分自動エンコーダのフレームワークの拡張を提案する。
我々は、変分オートエンコーダで一般的に使用されるコンパクトな以前のものを、最近発表されたより表現力のある階層型に置き換える。
提案手法は,ビデオ追跡ベンチマークを含む,さまざまなデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-02-12T09:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。