論文の概要: Autoencoder Image Interpolation by Shaping the Latent Space
- arxiv url: http://arxiv.org/abs/2008.01487v2
- Date: Thu, 22 Oct 2020 02:03:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 23:30:16.578293
- Title: Autoencoder Image Interpolation by Shaping the Latent Space
- Title(参考訳): 潜時空間形成によるオートエンコーダ画像の補間
- Authors: Alon Oring and Zohar Yakhini and Yacov Hel-Or
- Abstract要約: オートエンコーダは、異なるタイプのデータセットを特徴付ける基礎となる要因を計算するための効果的なアプローチである。
トレーニング画像と整合した多様体に従うために潜在表現を形作る正規化手法を提案する。
- 参考スコア(独自算出の注目度): 12.482988592988868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoencoders represent an effective approach for computing the underlying
factors characterizing datasets of different types. The latent representation
of autoencoders have been studied in the context of enabling interpolation
between data points by decoding convex combinations of latent vectors. This
interpolation, however, often leads to artifacts or produces unrealistic
results during reconstruction. We argue that these incongruities are due to the
structure of the latent space and because such naively interpolated latent
vectors deviate from the data manifold. In this paper, we propose a
regularization technique that shapes the latent representation to follow a
manifold that is consistent with the training images and that drives the
manifold to be smooth and locally convex. This regularization not only enables
faithful interpolation between data points, as we show herein, but can also be
used as a general regularization technique to avoid overfitting or to produce
new samples for data augmentation.
- Abstract(参考訳): オートエンコーダは、異なるタイプのデータセットを特徴付ける基礎となる要因を計算するための効果的なアプローチである。
オートエンコーダの潜在表現は、潜在ベクトルの凸結合をデコードすることでデータポイント間の補間を可能にするという文脈で研究されている。
しかし、この補間はしばしば、再建中に人工物や非現実的な結果をもたらす。
これらの矛盾は、潜在空間の構造と、そのような内挿された潜在ベクトルがデータ多様体から逸脱するためである。
本稿では,学習画像と整合する多様体を従えるように潜在表現を形作る正則化手法を提案し,その多様体を滑らかかつ局所凸に駆動する。
この正規化は、データポイント間の忠実な補間を可能にするだけでなく、オーバーフィットを避けたり、データ拡張のための新しいサンプルを作成するための一般的な正規化手法としても使用できる。
関連論文リスト
- Thinner Latent Spaces: Detecting dimension and imposing invariance through autoencoder gradient constraints [9.380902608139902]
ネットワークの潜在層内の直交関係を利用して、非線形多様体データセットの内在次元性を推定できることを示す。
微分幾何学に依拠する関係理論を概説し、対応する勾配偏光最適化アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2024-08-28T20:56:35Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Gradient-Based Feature Learning under Structured Data [57.76552698981579]
異方性設定では、一般的に使用される球面勾配力学は真の方向を回復できないことがある。
バッチ正規化を連想させる適切な重み正規化は、この問題を軽減することができることを示す。
特に、スパイクモデルの下では、勾配に基づくトレーニングのサンプルの複雑さは情報指数とは独立にできる。
論文 参考訳(メタデータ) (2023-09-07T16:55:50Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Relative representations enable zero-shot latent space communication [19.144630518400604]
ニューラルネットワークは、高次元空間に横たわるデータ多様体の幾何学的構造を潜在表現に埋め込む。
ニューラルネットワークがこれらの相対表現をどのように活用して、実際に潜時等尺不変性を保証するかを示す。
論文 参考訳(メタデータ) (2022-09-30T12:37:03Z) - Convergent autoencoder approximation of low bending and low distortion
manifold embeddings [5.5711773076846365]
オートエンコーダのエンコーダコンポーネントを学習するための新しい正規化を提案し,解析する。
損失関数は、入力多様体上の点対に対する異なるサンプリング戦略とモンテカルロ積分を通じて計算される。
我々の主定理は、埋め込み写像の損失汎函数をサンプリング依存損失汎函数の$Gamma$-極限として定義する。
論文 参考訳(メタデータ) (2022-08-22T10:31:31Z) - Learning low bending and low distortion manifold embeddings [1.8046244926068666]
エンコーダは、入力データマニホールドから潜在空間への埋め込みを提供し、その後、さらなる処理に使用することができる。
この記事では、潜在空間への埋め込みは、等尺性および平坦な埋め込みを促進する損失関数を介して正規化される。
損失汎関数はモンテカルロ積分によって計算され、埋め込み写像上で直接定義される幾何学的損失汎関数と一致することが示されている。
論文 参考訳(メタデータ) (2021-04-27T13:51:12Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。