論文の概要: Closed-Loop Data Transcription to an LDR via Minimaxing Rate Reduction
- arxiv url: http://arxiv.org/abs/2111.06636v1
- Date: Fri, 12 Nov 2021 10:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:44:07.721501
- Title: Closed-Loop Data Transcription to an LDR via Minimaxing Rate Reduction
- Title(参考訳): 最小レート削減によるldrへのクローズドループデータ転写
- Authors: Xili Dai, Shengbang Tong, Mingyang Li, Ziyang Wu, Kwan Ho Ryan Chan,
Pengyuan Zhai, Yaodong Yu, Michael Psenka, Xiaojun Yuan, Heung Yeung Shum, Yi
Ma
- Abstract要約: 本研究では,実世界のデータセットに対する明示的な生成モデル学習のための新しい計算フレームワークを提案する。
特に,多次元多次元データ分布と特徴空間における線形識別表現(LDR)の間の閉ループ転写を学習することを提案する。
多くのベンチマークデータセットに対する実験は、この新しいクローズドループの定式化の可能性を示している。
- 参考スコア(独自算出の注目度): 27.020835928724775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a new computational framework for learning an explicit
generative model for real-world datasets. In particular we propose to learn
{\em a closed-loop transcription} between a multi-class multi-dimensional data
distribution and a { linear discriminative representation (LDR)} in the feature
space that consists of multiple independent multi-dimensional linear subspaces.
In particular, we argue that the optimal encoding and decoding mappings sought
can be formulated as the equilibrium point of a {\em two-player minimax game
between the encoder and decoder}. A natural utility function for this game is
the so-called {\em rate reduction}, a simple information-theoretic measure for
distances between mixtures of subspace-like Gaussians in the feature space. Our
formulation draws inspiration from closed-loop error feedback from control
systems and avoids expensive evaluating and minimizing approximated distances
between arbitrary distributions in either the data space or the feature space.
To a large extent, this new formulation unifies the concepts and benefits of
Auto-Encoding and GAN and naturally extends them to the settings of learning a
{\em both discriminative and generative} representation for multi-class and
multi-dimensional real-world data. Our extensive experiments on many benchmark
imagery datasets demonstrate tremendous potential of this new closed-loop
formulation: under fair comparison, visual quality of the learned decoder and
classification performance of the encoder is competitive and often better than
existing methods based on GAN, VAE, or a combination of both. We notice that
the so learned features of different classes are explicitly mapped onto
approximately {\em independent principal subspaces} in the feature space; and
diverse visual attributes within each class are modeled by the {\em independent
principal components} within each subspace.
- Abstract(参考訳): 本研究では,実世界のデータセットに対する明示的な生成モデル学習のための新しい計算フレームワークを提案する。
特に、複数の独立した多次元線型部分空間からなる特徴空間において、多クラス多次元データ分布と { linear discriminative representation (ldr") の間の閉ループ転写を学習することを提案する。
特に、求める最適なエンコーディングとデコーディングのマッピングは、エンコーダとデコーダの間の2人のプレイヤーによるミニマックスゲームの平衡点として定式化することができる。
このゲームの自然効用関数はいわゆる「エム率減少」であり、これは特徴空間における部分空間のようなガウス多様体の混合物間の距離に関する単純な情報理論測度である。
本研究では,制御系からの閉ループ誤差フィードバックから着想を得て,データ空間と特徴空間の任意の分布間の近似距離を最小化する。
この新たな定式化は、Auto-EncodingとGANの概念と利点を統一し、マルチクラスおよび多次元実世界のデータに対する差別的表現と生成的表現の両方を学習する設定に自然に拡張する。
公平な比較の下では、学習したデコーダの視覚的品質とエンコーダの分類性能は、gan、vae、あるいは両方の組み合わせに基づく既存の方法よりも競争力があり、しばしば優れている。
異なるクラスのいわゆる学習された特徴は、特徴空間内のほぼ独立な主部分空間に明示的にマッピングされ、各クラス内の様々な視覚的属性は各部分空間内の独立な主部分空間によってモデル化される。
関連論文リスト
- Subspace Representation Learning for Sparse Linear Arrays to Localize More Sources than Sensors: A Deep Learning Methodology [19.100476521802243]
我々はスパース線形アレイ(SLA)のサンプル共分散からコアレイ部分空間を推定する新しい手法を開発した。
このような表現を学習するために、所望部分空間と推定部分空間との分離を測る損失関数を提案する。
異なる次元の学習部分空間の計算は、新しいバッチサンプリング戦略によって高速化される。
論文 参考訳(メタデータ) (2024-08-29T15:14:52Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Unsupervised Manifold Linearizing and Clustering [19.879641608165887]
本稿では、データ表現と2重クラスタメンバシップの両方に関して、最大符号化削減度を最適化することを提案する。
CIFAR-10, -20, -100, TinyImageNet-200データセットに対する実験により,提案手法は最先端のディープクラスタリング手法よりもはるかに正確でスケーラブルであることが示された。
論文 参考訳(メタデータ) (2023-01-04T20:08:23Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Generalized One-Class Learning Using Pairs of Complementary Classifiers [41.64645294104883]
1クラス学習は、単一のクラスでのみアノテーションが利用できるデータにモデルを適合させる古典的な問題である。
本稿では,一級学習の新たな目的を探求し,これを一般化一級識別サブスペース(GODS)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-24T18:52:05Z) - Learning optimally separated class-specific subspace representations
using convolutional autoencoder [0.0]
サブスペース固有の特徴表現を生成するための新しい畳み込みオートエンコーダアーキテクチャを提案する。
提案手法の有効性を実証するため,最先端の機械学習データセットを用いていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-19T00:45:34Z) - Switch Spaces: Learning Product Spaces with Sparse Gating [48.591045282317424]
製品空間における表現を学習するためのデータ駆動アプローチであるswitch spacesを提案する。
我々は空間の選択、結合、切り替えを学習するスパースゲーティング機構を導入する。
知識グラフの補完と項目レコメンデーションの実験により,提案したスイッチ空間が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2021-02-17T11:06:59Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Deep Metric Structured Learning For Facial Expression Recognition [58.7528672474537]
本研究では,よく定義された構造を持つ組込み部分空間を作成するための深度計量学習モデルを提案する。
これらの部分空間を作成するために、出力空間上にガウス構造を課す新しい損失関数が導入された。
学習した埋め込みは,表現検索や感情認識など,様々な応用に有効であることが実験的に実証された。
論文 参考訳(メタデータ) (2020-01-18T06:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。