論文の概要: Linear Distance Metric Learning
- arxiv url: http://arxiv.org/abs/2306.03173v1
- Date: Mon, 5 Jun 2023 18:29:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 18:49:55.549632
- Title: Linear Distance Metric Learning
- Title(参考訳): 線形距離距離学習
- Authors: Meysam Alishahi, Anna Little, and Jeff M. Phillips
- Abstract要約: たとえデータがノイズであっても、基底真理線型計量は任意の精度で学習可能であることを示す。
損失関数やパラメータの精度を確実に維持できる低ランクモデルに学習モデルを切り換える効果的な方法を提案する。
- 参考スコア(独自算出の注目度): 9.94209362187545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In linear distance metric learning, we are given data in one Euclidean metric
space and the goal is to find an appropriate linear map to another Euclidean
metric space which respects certain distance conditions as much as possible. In
this paper, we formalize a simple and elegant method which reduces to a general
continuous convex loss optimization problem, and for different noise models we
derive the corresponding loss functions. We show that even if the data is
noisy, the ground truth linear metric can be learned with any precision
provided access to enough samples, and we provide a corresponding sample
complexity bound. Moreover, we present an effective way to truncate the learned
model to a low-rank model that can provably maintain the accuracy in loss
function and in parameters -- the first such results of this type. Several
experimental observations on synthetic and real data sets support and inform
our theoretical results.
- Abstract(参考訳): 線形距離距離学習では、あるユークリッド距離空間内のデータを与えられ、ある距離条件を可能な限り尊重する別のユークリッド距離空間への適切な線型写像を見つけることが目的である。
本稿では,一般連続凸損失最適化問題に還元する単純でエレガントな手法を定式化し,異なる雑音モデルに対して対応する損失関数を導出する。
その結果、データがノイズである場合でも、十分なサンプルへのアクセスを提供する精度で基底真理線形計量を学習できることを示し、対応するサンプル複雑性を限定する。
さらに,学習したモデルを低ランクモデルに切り離し,損失関数とパラメータの精度を良好に維持する効果的な手法を提案する。
合成および実データ集合に関するいくつかの実験的な観察は、我々の理論的結果を支持し、知らせる。
関連論文リスト
- Sample-Efficient Geometry Reconstruction from Euclidean Distances using Non-Convex Optimization [7.114174944371803]
ユークリッド距離情報点対を埋め込む適切な点を見つける問題は、コアタスクとサブマシン学習の問題の両方として生じる。
本稿では,最小限のサンプル数を考えると,この問題を解決することを目的とする。
論文 参考訳(メタデータ) (2024-10-22T13:02:12Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - One-Way Matching of Datasets with Low Rank Signals [4.582330307986793]
投影されたデータに対する線形代入は収束の速さを達成し、時にはこのタスクに対する最小値の最適性さえも達成できることを示す。
本稿では,2つの単一セルデータ例に対して,マッチング手法の実用化について述べる。
論文 参考訳(メタデータ) (2022-04-29T03:12:23Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Calibrated Simplex Mapping Classification [0.0]
本研究では,学習データを直線的に分離可能な潜在空間に写像する多重クラス/単一ラベル分類器を提案する。
そのソリューションでは、特徴空間における適切な距離メトリックと、潜在的な空間座標を予測する回帰モデルを選択できます。
論文 参考訳(メタデータ) (2021-03-04T10:18:22Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Evaluating representations by the complexity of learning low-loss
predictors [55.94170724668857]
下流タスクの解決に使用されるデータの表現を評価することの問題点を考察する。
本稿では,関心のあるタスクにおける低損失を実現する表現の上に,予測器を学習する複雑性によって表現の質を測定することを提案する。
論文 参考訳(メタデータ) (2020-09-15T22:06:58Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z) - Linear predictor on linearly-generated data with missing values: non
consistency and solutions [0.0]
本研究では,予測対象が全観測データの線形関数である場合について検討する。
不足する値が存在する場合、最適予測器は線形でない可能性があることを示す。
論文 参考訳(メタデータ) (2020-02-03T11:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。