論文の概要: Robust Geometric Metric Learning
- arxiv url: http://arxiv.org/abs/2202.11550v1
- Date: Wed, 23 Feb 2022 14:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 14:24:33.219880
- Title: Robust Geometric Metric Learning
- Title(参考訳): ロバストな幾何学的メトリック学習
- Authors: Antoine Collas, Arnaud Breloy, Guillaume Ginolhac, Chengfang Ren,
Jean-Philippe Ovarlez
- Abstract要約: 本稿では,計量学習問題に対する新しいアルゴリズムを提案する。
その後、Robust Geometric Metric Learning (RGML)と呼ばれる一般的な手法が研究される。
RGMLのパフォーマンスは、実際のデータセット上で保証される。
- 参考スコア(独自算出の注目度): 17.855338784378
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes new algorithms for the metric learning problem. We start
by noticing that several classical metric learning formulations from the
literature can be viewed as modified covariance matrix estimation problems.
Leveraging this point of view, a general approach, called Robust Geometric
Metric Learning (RGML), is then studied. This method aims at simultaneously
estimating the covariance matrix of each class while shrinking them towards
their (unknown) barycenter. We focus on two specific costs functions: one
associated with the Gaussian likelihood (RGML Gaussian), and one with Tyler's M
-estimator (RGML Tyler). In both, the barycenter is defined with the Riemannian
distance, which enjoys nice properties of geodesic convexity and affine
invariance. The optimization is performed using the Riemannian geometry of
symmetric positive definite matrices and its submanifold of unit determinant.
Finally, the performance of RGML is asserted on real datasets. Strong
performance is exhibited while being robust to mislabeled data.
- Abstract(参考訳): 本稿では,計量学習問題に対する新しいアルゴリズムを提案する。
まず、文献からの古典的計量学習の定式化を共分散行列推定問題として修正することができることに注意する。
この観点から、Robust Geometric Metric Learning (RGML)と呼ばれる一般的なアプローチが研究される。
この方法は、各クラスの共分散行列を(未知の)バリセンタに向けて縮小しながら同時に推定することを目的としている。
本稿では,ガウス確率(RGML Gaussian)とタイラーのM-推定器(RGML Tyler)の2つの特定のコスト関数に着目した。
どちらも、バリ中心はリーマン距離で定義され、測地的凸性とアフィン不変性のよい性質を享受する。
この最適化は対称正定行列のリーマン幾何学と単位行列の部分多様体を用いて行われる。
最後に、実際のデータセット上でRGMLのパフォーマンスが主張される。
不正なラベル付きデータに対して堅牢でありながら、強いパフォーマンスを示す。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Riemannian Optimization for Non-convex Euclidean Distance Geometry with Global Recovery Guarantees [6.422262171968397]
ユークリッド距離幾何学問題を解くために2つのアルゴリズムが提案されている。
第一のアルゴリズムは真の解に線形に収束する。
第2のアルゴリズムは、合成データと実データの両方で強い数値性能を示す。
論文 参考訳(メタデータ) (2024-10-08T21:19:22Z) - Doubly Stochastic Adaptive Neighbors Clustering via the Marcus Mapping [56.57574396804837]
クラスタリングは機械学習とデータサイエンスにおける基本的なタスクであり、類似性グラフベースのクラスタリングはこの領域において重要なアプローチである。
マーカスマッピングと最適輸送の関係について検討する。
マーカス写像が特定の種類の最適輸送問題を解くことを証明し、マーカス写像によるこの問題の解法が最適輸送法を直接適用するよりも効率的であることを証明した。
論文 参考訳(メタデータ) (2024-08-06T03:34:43Z) - Understanding Matrix Function Normalizations in Covariance Pooling through the Lens of Riemannian Geometry [63.694184882697435]
グローバル共分散プーリング(GCP)は、高レベルの表現の2階統計を利用して、ディープニューラルネットワーク(DNN)の性能を向上させることが実証されている。
論文 参考訳(メタデータ) (2024-07-15T07:11:44Z) - Intrinsic Bayesian Cramér-Rao Bound with an Application to Covariance Matrix Estimation [49.67011673289242]
本稿では, 推定パラメータが滑らかな多様体内にある推定問題に対して, 新たな性能境界を提案する。
これはパラメータ多様体の幾何学と推定誤差測度の本質的な概念を誘導する。
論文 参考訳(メタデータ) (2023-11-08T15:17:13Z) - Sliced-Wasserstein on Symmetric Positive Definite Matrices for M/EEG
Signals [24.798859309715667]
共分散行列の分布を扱うための新しい手法を提案する。
本稿では,脳コンピュータインタフェースの領域適応におけるワッサースタイン距離の効率的なサロゲートであることを示す。
論文 参考訳(メタデータ) (2023-03-10T09:08:46Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Lagrangian Manifold Monte Carlo on Monge Patches [5.586191108738564]
この計量でラグランジアンモンテカルロがターゲット分布を効率的に探索する方法を示す。
我々の計量は1次情報しか必要とせず、高速な逆行列式と行列式を持つ。
論文 参考訳(メタデータ) (2022-02-01T21:01:22Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Probabilistic Learning Vector Quantization on Manifold of Symmetric
Positive Definite Matrices [3.727361969017079]
本研究では,確率論的学習ベクトル量子化の枠組みにおける多様体値データの新しい分類法を開発した。
本稿では,対称正定値行列の多様体上に存在するデータ点に対する確率論的学習ベクトル量子化アルゴリズムを一般化する。
合成データ,画像データ,運動画像脳波データに関する実証的研究は,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-01T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。