論文の概要: Manifold Learning Benefits GANs
- arxiv url: http://arxiv.org/abs/2112.12618v1
- Date: Thu, 23 Dec 2021 14:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 14:22:55.709676
- Title: Manifold Learning Benefits GANs
- Title(参考訳): マニフォールド学習はGANに利益をもたらす
- Authors: Yao Ni, Piotr Koniusz, Richard Hartley, Richard Nock
- Abstract要約: 我々は、識別器に多様体学習ステップを組み込むことにより、生成的敵ネットワークを改善する。
我々の設計では、多様体学習と符号化のステップは判別器の層に絡み合っている。
近年の最先端のベースラインに比較して,大幅な改善が見られた。
- 参考スコア(独自算出の注目度): 59.30818650649828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we improve Generative Adversarial Networks by incorporating a
manifold learning step into the discriminator. We consider locality-constrained
linear and subspace-based manifolds, and locality-constrained non-linear
manifolds. In our design, the manifold learning and coding steps are
intertwined with layers of the discriminator, with the goal of attracting
intermediate feature representations onto manifolds. We adaptively balance the
discrepancy between feature representations and their manifold view, which
represents a trade-off between denoising on the manifold and refining the
manifold. We conclude that locality-constrained non-linear manifolds have the
upper hand over linear manifolds due to their non-uniform density and
smoothness. We show substantial improvements over different recent
state-of-the-art baselines.
- Abstract(参考訳): 本稿では,識別器に多様体学習のステップを組み込むことにより,生成適応ネットワークを改善する。
局所性制約線型および部分空間ベース多様体と局所性制約非線型多様体を考える。
我々の設計では、多様体の学習と符号化のステップは、多様体上の中間的特徴表現を引き付けることを目的として、判別器の層と連動する。
我々は、特徴表現と多様体のビューとの相違を適応的にバランスさせ、それは多様体上の denoising と多様体の精製の間のトレードオフを表す。
局所性に制約のある非線型多様体は、その非一様密度と滑らかさにより、線型多様体の上手を持つ。
近年の最先端のベースラインよりも大幅に改善されている。
関連論文リスト
- Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Alignment and Outer Shell Isotropy for Hyperbolic Graph Contrastive
Learning [69.6810940330906]
高品質なグラフ埋め込みを学習するための新しいコントラスト学習フレームワークを提案する。
具体的には、階層的なデータ不変情報を効果的にキャプチャするアライメントメトリックを設計する。
双曲空間において、木の性質に関連する葉と高さの均一性に対処する必要があることを示す。
論文 参考訳(メタデータ) (2023-10-27T15:31:42Z) - Generative Modeling on Manifolds Through Mixture of Riemannian Diffusion Processes [57.396578974401734]
一般多様体上に生成拡散過程を構築するための原理的枠組みを導入する。
従来の拡散モデルの認知的アプローチに従う代わりに、橋梁プロセスの混合を用いて拡散過程を構築する。
混合過程を幾何学的に理解し,データ点への接する方向の重み付け平均としてドリフトを導出する。
論文 参考訳(メタデータ) (2023-10-11T06:04:40Z) - Going Beyond Linear Mode Connectivity: The Layerwise Linear Feature
Connectivity [62.11981948274508]
LLFCの超越についての研究は,特徴学習の視点を取り入れることでLCCの理解を深める。
LLFCの総合的な実証的証拠として,2つの訓練ネットワークがLCCを満たす場合,ほぼすべての層でLLFCを満足することを示す。
論文 参考訳(メタデータ) (2023-07-17T07:16:28Z) - Inversion dynamics of class manifolds in deep learning reveals tradeoffs
underlying generalisation [0.0]
非単調な傾向と対立する傾向のバランスをとる表現を最適化力学がいかに見つけるかを示す数値実験について報告する。
インバージョンでのトレーニングエラーはサブサンプリングの下で安定しており、ネットワークの初期化やオプティマイザを越えて、データ構造と(非常に弱い)アーキテクチャのプロパティとして特徴付けられる。
論文 参考訳(メタデータ) (2023-03-09T10:35:40Z) - Invariance-based Multi-Clustering of Latent Space Embeddings for
Equivariant Learning [12.770012299379099]
より深い群不変学習を強制することにより、リー群多様体における等角写像を非共役化する手法を提案する。
実験の結果,このモデルでは,不変表現と同変表現を効果的に切り離すことができ,学習速度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-07-25T03:27:47Z) - IntraLoss: Further Margin via Gradient-Enhancing Term for Deep Face
Recognition [14.562043494026849]
既存の分類に基づく顔認識手法は目覚ましい進歩を遂げた。
粗悪な特徴分布は、マージンスキームによるパフォーマンス改善を排除します。
本稿では,クラス内の分布特性に着目した勾配強調項を提案する。
論文 参考訳(メタデータ) (2021-07-07T16:53:45Z) - Multi-chart flows [0.0]
本稿では,非自明な位相的非自明な多様体演算を同時に学習するフローベースモデルを提案する。
我々のモデルは、学習された座標チャートの集合を通して、局所多様体トポロジーを「グルー」することで断片的に学習する。
我々は,現在の最先端技術に対して,より優れたサンプル効率,競争力,あるいは優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-07T10:37:06Z) - Rectangular Flows for Manifold Learning [38.63646804834534]
正規化フローは、トラクタブル・オブ・ボリューム項を持つ可逆ニューラルネットワークである。
興味のあるデータは、通常、高次元の周囲空間に埋め込まれたいくつかの(しばしば未知の)低次元多様体に生きていると仮定される。
本稿では,モデルのパラメータに関して,この項の勾配を抽出可能な2つの手法を提案する。
論文 参考訳(メタデータ) (2021-06-02T18:30:39Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。