論文の概要: Learning low bending and low distortion manifold embeddings
- arxiv url: http://arxiv.org/abs/2104.13189v1
- Date: Tue, 27 Apr 2021 13:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:24:52.457122
- Title: Learning low bending and low distortion manifold embeddings
- Title(参考訳): 低曲げおよび低歪み多様体埋め込みの学習
- Authors: Juliane Braunsmann, Marko Rajkovi\'c, Martin Rumpf, Benedikt Wirth
- Abstract要約: エンコーダは、入力データマニホールドから潜在空間への埋め込みを提供し、その後、さらなる処理に使用することができる。
この記事では、潜在空間への埋め込みは、等尺性および平坦な埋め込みを促進する損失関数を介して正規化される。
損失汎関数はモンテカルロ積分によって計算され、埋め込み写像上で直接定義される幾何学的損失汎関数と一致することが示されている。
- 参考スコア(独自算出の注目度): 1.8046244926068666
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autoencoders are a widespread tool in machine learning to transform
high-dimensional data into a lowerdimensional representation which still
exhibits the essential characteristics of the input. The encoder provides an
embedding from the input data manifold into a latent space which may then be
used for further processing. For instance, learning interpolation on the
manifold may be simplified via the new manifold representation in latent space.
The efficiency of such further processing heavily depends on the regularity and
structure of the embedding. In this article, the embedding into latent space is
regularized via a loss function that promotes an as isometric and as flat
embedding as possible. The required training data comprises pairs of nearby
points on the input manifold together with their local distance and their local
Frechet average. This regularity loss functional even allows to train the
encoder on its own. The loss functional is computed via a Monte Carlo
integration which is shown to be consistent with a geometric loss functional
defined directly on the embedding map. Numerical tests are performed using
image data that encodes different data manifolds. The results show that smooth
manifold embeddings in latent space are obtained. These embeddings are regular
enough such that interpolation between not too distant points on the manifold
is well approximated by linear interpolation in latent space.
- Abstract(参考訳): オートエンコーダは、高次元データを低次元の表現に変換する機械学習において広く使われているツールである。
エンコーダは入力データ多様体から潜在空間への埋め込みを提供し、さらなる処理に使用できる。
例えば、多様体上の学習補間は、潜在空間における新しい多様体表現を通して単純化することができる。
このようなさらなる処理の効率は、埋め込みの規則性と構造に大きく依存する。
この記事では、潜在空間への埋め込みは、等尺的かつ可能な限り平坦な埋め込みを促進する損失関数によって正規化されます。
所要の訓練データは、入力多様体上の近傍点のペアと、局所距離および局所フレシェ平均とからなる。
この正規性損失関数は、自分自身でエンコーダをトレーニングすることさえできる。
損失汎関数はモンテカルロ積分によって計算され、埋め込み写像上で直接定義される幾何学的損失汎関数と一致することが示されている。
数値テストは、異なるデータ多様体を符号化する画像データを用いて行われる。
その結果, 潜在空間への滑らかな多様体埋め込みが得られた。
これらの埋め込みは十分正則であり、多様体上の遠くない点の間の補間は、潜在空間における線型補間によってよく近似される。
関連論文リスト
- Thinner Latent Spaces: Detecting dimension and imposing invariance through autoencoder gradient constraints [9.380902608139902]
ネットワークの潜在層内の直交関係を利用して、非線形多様体データセットの内在次元性を推定できることを示す。
微分幾何学に依拠する関係理論を概説し、対応する勾配偏光最適化アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2024-08-28T20:56:35Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Fundamental Limits of Two-layer Autoencoders, and Achieving Them with
Gradient Methods [91.54785981649228]
本稿では,非線形二層型オートエンコーダについて述べる。
本結果は,人口リスクの最小化要因を特徴付け,その最小化要因が勾配法によって達成されることを示す。
符号アクティベーション関数の特別な場合において、この解析は、シャローオートエンコーダによるガウス音源の損失圧縮の基本的な限界を確立する。
論文 参考訳(メタデータ) (2022-12-27T12:37:34Z) - Convolutional Filtering on Sampled Manifolds [122.06927400759021]
サンプル多様体上の畳み込みフィルタリングは連続多様体フィルタリングに収束することを示す。
本研究は,ナビゲーション制御の問題点を実証的に明らかにした。
論文 参考訳(メタデータ) (2022-11-20T19:09:50Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Convergent autoencoder approximation of low bending and low distortion
manifold embeddings [5.5711773076846365]
オートエンコーダのエンコーダコンポーネントを学習するための新しい正規化を提案し,解析する。
損失関数は、入力多様体上の点対に対する異なるサンプリング戦略とモンテカルロ積分を通じて計算される。
我々の主定理は、埋め込み写像の損失汎函数をサンプリング依存損失汎函数の$Gamma$-極限として定義する。
論文 参考訳(メタデータ) (2022-08-22T10:31:31Z) - Adaptive Machine Learning for Time-Varying Systems: Low Dimensional
Latent Space Tuning [91.3755431537592]
本稿では,時間変化システムを対象とした適応機械学習手法を提案する。
我々は,エンコーダデコーダCNNのエンコーダ部出力において,非常に高次元(N>100k)の入力を低次元(N2)潜在空間にマッピングする。
そこで本手法では,割り込みを伴わないフィードバックに基づいて,内部の相関関係を学習し,その進化をリアルタイムで追跡する。
論文 参考訳(メタデータ) (2021-07-13T16:05:28Z) - Autoencoder Image Interpolation by Shaping the Latent Space [12.482988592988868]
オートエンコーダは、異なるタイプのデータセットを特徴付ける基礎となる要因を計算するための効果的なアプローチである。
トレーニング画像と整合した多様体に従うために潜在表現を形作る正規化手法を提案する。
論文 参考訳(メタデータ) (2020-08-04T12:32:54Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。