論文の概要: Unsupervised Ground Metric Learning
- arxiv url: http://arxiv.org/abs/2507.13094v1
- Date: Thu, 17 Jul 2025 13:06:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.505613
- Title: Unsupervised Ground Metric Learning
- Title(参考訳): 教師なし地上メトリックラーニング
- Authors: Janis Auffenberg, Jonas Bresch, Oleh Melnyk, Gabriele Steidl,
- Abstract要約: 教師なしメトリック学習におけるアルゴリズムとモデリングの双方について考察する。
特に、ランダム関数アルゴリズムを用いて、それが我々の設定に線形収束することを証明することを提案する。
マハラノビスのような距離が我々の考慮にどのように当てはまるかを示す。
- 参考スコア(独自算出の注目度): 1.2499537119440245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data classification without access to labeled samples remains a challenging problem. It usually depends on an appropriately chosen distance between features, a topic addressed in metric learning. Recently, Huizing, Cantini and Peyr\'e proposed to simultaneously learn optimal transport (OT) cost matrices between samples and features of the dataset. This leads to the task of finding positive eigenvectors of a certain nonlinear function that maps cost matrices to OT distances. Having this basic idea in mind, we consider both the algorithmic and the modeling part of unsupervised metric learning. First, we examine appropriate algorithms and their convergence. In particular, we propose to use the stochastic random function iteration algorithm and prove that it converges linearly for our setting, although our operators are not paracontractive as it was required for convergence so far. Second, we ask the natural question if the OT distance can be replaced by other distances. We show how Mahalanobis-like distances fit into our considerations. Further, we examine an approach via graph Laplacians. In contrast to the previous settings, we have just to deal with linear functions in the wanted matrices here, so that simple algorithms from linear algebra can be applied.
- Abstract(参考訳): ラベル付きサンプルへのアクセスのないデータの分類は、依然として難しい問題である。
通常は、メトリック学習で対処されるトピックである特徴間の適切な選択された距離に依存します。
最近、Huizing、Cantini、Peyr\eはサンプルとデータセットの特徴の間の最適輸送(OT)コスト行列を同時に学習することを提案した。
これは、コスト行列を OT 距離にマッピングするある種の非線形関数の正の固有ベクトルを求めるタスクに繋がる。
この基本的な考え方を念頭に置いて、教師なしメトリック学習のアルゴリズム的およびモデリング的部分について検討する。
まず,適切なアルゴリズムとその収束について検討する。
特に, 確率的ランダム関数反復アルゴリズムを用いて, これまでの収束に必要であったため, 演算子はパラコントラクティブではないものの, 線形に収束することを示す。
第二に、OT距離を他の距離に置き換えることができるかどうかという自然問題である。
マハラノビスのような距離が我々の考慮にどのように当てはまるかを示す。
さらに,グラフラプラシアンによるアプローチについても検討する。
以前の設定とは対照的に、ここでは所望行列における線型関数を扱うだけで、線型代数からの単純アルゴリズムを適用することができる。
関連論文リスト
- Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - Learning the Positions in CountSketch [49.57951567374372]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-11T07:28:35Z) - Data-driven abstractions via adaptive refinements and a Kantorovich
metric [extended version] [56.94699829208978]
本稿では,動的システムのスマートでスケーラブルな抽象化のための適応的洗練手順を提案する。
最適構造を学ぶために、マルコフ連鎖の間のカントロビッチに着想を得た計量を定義する。
本稿では,従来の線形プログラミング手法よりも計算量が多くなることを示す。
論文 参考訳(メタデータ) (2023-03-30T11:26:40Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - How catastrophic can catastrophic forgetting be in linear regression? [30.702863017223457]
モデルがその後のタスクのトレーニング後に、以前のタスクの本当のラベルをどれだけ忘れているかを分析する。
線形設定における連続学習と他の2つの研究領域の関連性を確立する。
論文 参考訳(メタデータ) (2022-05-19T14:28:40Z) - Hyperbolic Vision Transformers: Combining Improvements in Metric
Learning [116.13290702262248]
計量学習のための新しい双曲型モデルを提案する。
本手法のコアとなるのは、双曲空間にマッピングされた出力埋め込みを備えた視覚変換器である。
4つのデータセットに6つの異なる定式化を施したモデルの評価を行った。
論文 参考訳(メタデータ) (2022-03-21T09:48:23Z) - Unsupervised Ground Metric Learning using Wasserstein Eigenvectors [0.0]
主なボトルネックは、研究対象のタスクに適応すべき「基礎」コストの設計である。
本論文では,コストを入力間のペアワイズOT距離にマッピングする関数の正の固有ベクトルとして,接地コストを計算することで,正の正の答えを初めて提案する。
また,主成分分析次元の低減を行うエントロピー正則化を用いたスケーラブルな計算手法を提案する。
論文 参考訳(メタデータ) (2021-02-11T21:32:59Z) - Complex-valued embeddings of generic proximity data [0.6117371161379209]
近さは、ほぼすべての機械学習手法の中心にある。
近接データの複素数値ベクトル埋め込みを提案する。
複雑な値を持つデータは、複雑な値を持つ機械学習アルゴリズムの入力として機能する。
論文 参考訳(メタデータ) (2020-08-31T09:40:30Z) - Learning the Positions in CountSketch [51.15935547615698]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習アルゴリズムを提案する。
このアルゴリズムは, 従来よりも低階近似の精度を向上し, 初めて$k$-meansクラスタリングのような他の問題に適用できることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:06:29Z) - Multiple Metric Learning for Structured Data [0.0]
構造化データからメトリクスを学習しながらグラフと特徴空間情報を融合する問題に対処する。
本稿では,距離制約下での最適化のためのグラフベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T19:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。