論文の概要: Unsupervised Ground Metric Learning using Wasserstein Eigenvectors
- arxiv url: http://arxiv.org/abs/2102.06278v1
- Date: Thu, 11 Feb 2021 21:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 22:37:25.830252
- Title: Unsupervised Ground Metric Learning using Wasserstein Eigenvectors
- Title(参考訳): Wasserstein Eigenvectorを用いた教師なし地上測定学習
- Authors: Geert-Jan Huizing, Laura Cantini, Gabriel Peyr\'e
- Abstract要約: 主なボトルネックは、研究対象のタスクに適応すべき「基礎」コストの設計である。
本論文では,コストを入力間のペアワイズOT距離にマッピングする関数の正の固有ベクトルとして,接地コストを計算することで,正の正の答えを初めて提案する。
また,主成分分析次元の低減を行うエントロピー正則化を用いたスケーラブルな計算手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal Transport (OT) defines geometrically meaningful "Wasserstein"
distances, used in machine learning applications to compare probability
distributions. However, a key bottleneck is the design of a "ground" cost which
should be adapted to the task under study. In most cases, supervised metric
learning is not accessible, and one usually resorts to some ad-hoc approach.
Unsupervised metric learning is thus a fundamental problem to enable
data-driven applications of Optimal Transport. In this paper, we propose for
the first time a canonical answer by computing the ground cost as a positive
eigenvector of the function mapping a cost to the pairwise OT distances between
the inputs. This map is homogeneous and monotone, thus framing unsupervised
metric learning as a non-linear Perron-Frobenius problem. We provide criteria
to ensure the existence and uniqueness of this eigenvector. In addition, we
introduce a scalable computational method using entropic regularization, which
- in the large regularization limit - operates a principal component analysis
dimensionality reduction. We showcase this method on synthetic examples and
datasets. Finally, we apply it in the context of biology to the analysis of a
high-throughput single-cell RNA sequencing (scRNAseq) dataset, to improve cell
clustering and infer the relationships between genes in an unsupervised way.
- Abstract(参考訳): 最適輸送(OT)は、確率分布を比較するために機械学習アプリケーションで使用される幾何学的に意味のある「ワッサースタイン」距離を定義する。
しかし、重要なボトルネックは、研究対象のタスクに適合すべき「基礎」コストの設計である。
ほとんどの場合、教師付きメトリクス学習はアクセスできず、通常はアドホックなアプローチに頼っています。
したがって、教師なしメトリック学習は、最適輸送のデータ駆動型アプリケーションを実現するための根本的な問題である。
本論文では,コストを入力間のペアワイズOT距離にマッピングする関数の正の固有ベクトルとして,接地コストを計算することで,正の正の答えを初めて提案する。
この写像は均質で単調であり、非線型ペロン・フロベニウス問題として教師なしの計量学習を組み立てる。
この固有ベクトルの存在と特異性を保証するための基準を提供する。
さらに、エントロピー正規化を用いたスケーラブルな計算手法を導入し、大きな正規化限度において主成分分析次元の低減を行います。
この手法を合成例とデータセットで紹介する。
最後に,高スループット単一細胞RNAシークエンシング(scRNAseq)データセットの解析に生物学の文脈で適用し,細胞クラスタリングを改善し,遺伝子間の関係を教師なしの方法で推測する。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Spectrum-Aware Debiasing: A Modern Inference Framework with Applications to Principal Components Regression [1.342834401139078]
本稿では,高次元回帰のための新しい手法であるSpectrumAware Debiasingを紹介する。
我々のアプローチは、構造的、重く、低ランクな構造に関する問題に適用できる。
シミュレーションおよび実データ実験により本手法を実証する。
論文 参考訳(メタデータ) (2023-09-14T15:58:30Z) - Manifold Learning with Sparse Regularised Optimal Transport [0.17205106391379024]
実世界のデータセットはノイズの多い観測とサンプリングを受けており、基礎となる多様体に関する情報を蒸留することが大きな課題である。
本稿では,2次正規化を用いた最適輸送の対称版を利用する多様体学習法を提案する。
得られたカーネルは連続的な極限においてLaplace型演算子と整合性を証明し、ヘテロスケダスティックノイズに対する堅牢性を確立し、これらの結果をシミュレーションで示す。
論文 参考訳(メタデータ) (2023-07-19T08:05:46Z) - Entropic Wasserstein Component Analysis [8.744017403796406]
次元減少(DR)の鍵となる要件は、元のサンプルと組込みサンプルの間にグローバルな依存関係を組み込むことである。
最適輸送(OT)と主成分分析(PCA)の原理を組み合わせる。
提案手法は, サンプルの近傍情報を自然に符号化するエントロピーOTを用いて, 復元誤差を最小化する最適線形部分空間を求める。
論文 参考訳(メタデータ) (2023-03-09T08:59:33Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Relative gradient optimization of the Jacobian term in unsupervised deep
learning [9.385902422987677]
データを正しく記述した表現的確率モデルを学習することは、機械学習におけるユビキタスな問題である。
このタスクには深度モデルが広く使用されているが、その最大可能性に基づくトレーニングでは、ジャコビアンの対数行列式を推定する必要がある。
このようなニューラルネットワークの正確なトレーニングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:41:08Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。