論文の概要: A New Modal Autoencoder for Functionally Independent Feature Extraction
- arxiv url: http://arxiv.org/abs/2006.14390v1
- Date: Thu, 25 Jun 2020 13:25:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:13:01.357558
- Title: A New Modal Autoencoder for Functionally Independent Feature Extraction
- Title(参考訳): 機能独立な特徴抽出のための新しいモーダルオートエンコーダ
- Authors: Yuzhu Guo, Kang Pan, Simeng Li, Zongchang Han, Kexin Wang and Li Li
- Abstract要約: 新しいモーダルオートエンコーダ (MAE) は、読み出し重み行列の列をオトゴゴナライズすることによって提案される。
結果は、MNIST変異とUSPS分類ベンチマークスイートで検証された。
新しいMAEは、オートエンコーダのための非常にシンプルなトレーニング原則を導入し、ディープニューラルネットワークの事前トレーニングを約束できる。
- 参考スコア(独自算出の注目度): 6.690183908967779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoencoders have been widely used for dimensional reduction and feature
extraction. Various types of autoencoders have been proposed by introducing
regularization terms. Most of these regularizations improve representation
learning by constraining the weights in the encoder part, which maps input into
hidden nodes and affects the generation of features. In this study, we show
that a constraint to the decoder can also significantly improve its performance
because the decoder determines how the latent variables contribute to the
reconstruction of input. Inspired by the structural modal analysis method in
mechanical engineering, a new modal autoencoder (MAE) is proposed by
othogonalising the columns of the readout weight matrix. The new regularization
helps to disentangle explanatory factors of variation and forces the MAE to
extract fundamental modes in data. The learned representations are functionally
independent in the reconstruction of input and perform better in consecutive
classification tasks. The results were validated on the MNIST variations and
USPS classification benchmark suite. Comparative experiments clearly show that
the new algorithm has a surprising advantage. The new MAE introduces a very
simple training principle for autoencoders and could be promising for the
pre-training of deep neural networks.
- Abstract(参考訳): オートエンコーダは次元減少と特徴抽出に広く用いられている。
正規化項を導入することで、様々な種類のオートエンコーダが提案されている。
これらの正規化の多くは、入力を隠れたノードにマッピングし、特徴の生成に影響を与えるエンコーダ部分の重みを制約することで、表現学習を改善する。
本研究では,遅延変数が入力の再構成にどのように寄与するかを決定するため,デコーダに対する制約も性能を著しく向上させることができることを示す。
機械工学における構造モーダル解析法にインスパイアされた新しいモーダルオートエンコーダ(MAE)は、読み出し重み行列の列をオトゴナライズすることによって提案される。
新しい正規化は、変動の説明的要因を解消し、maeにデータの基本モードを抽出させるのに役立つ。
学習された表現は入力の再構成において機能的に独立であり、連続的な分類タスクにおいてより良い性能を発揮する。
結果は、MNIST変異とUSPS分類ベンチマークスイートで検証された。
比較実験は、新しいアルゴリズムが驚くべき優位性を持っていることを明らかに示している。
新しいmaeは、オートエンコーダのための非常にシンプルなトレーニング原則を導入し、ディープニューラルネットワークの事前トレーニングに期待できる。
関連論文リスト
- Linear Recursive Feature Machines provably recover low-rank matrices [17.530511273384786]
我々は、RFMが次元還元を行うための最初の理論的保証を開発する。
反復重み付き最小二乗法 (IRLS) アルゴリズムを一般化する。
我々の結果は、ニューラルネットワークにおける特徴学習と古典的なスパースリカバリアルゴリズムの関連性に光を当てた。
論文 参考訳(メタデータ) (2024-01-09T13:44:12Z) - Regress Before Construct: Regress Autoencoder for Point Cloud
Self-supervised Learning [18.10704604275133]
Masked Autoencoders (MAE) は、2Dおよび3Dコンピュータビジョンのための自己教師型学習において有望な性能を示した。
我々は、ポイントクラウド自己教師型学習のための回帰オートエンコーダの新しいスキーム、Point Regress AutoEncoder (Point-RAE)を提案する。
本手法は, 各種下流タスクの事前学習において効率よく, 一般化可能である。
論文 参考訳(メタデータ) (2023-09-25T17:23:33Z) - Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Fundamental Limits of Two-layer Autoencoders, and Achieving Them with
Gradient Methods [91.54785981649228]
本稿では,非線形二層型オートエンコーダについて述べる。
本結果は,人口リスクの最小化要因を特徴付け,その最小化要因が勾配法によって達成されることを示す。
符号アクティベーション関数の特別な場合において、この解析は、シャローオートエンコーダによるガウス音源の損失圧縮の基本的な限界を確立する。
論文 参考訳(メタデータ) (2022-12-27T12:37:34Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Consistency Regularization for Variational Auto-Encoders [14.423556966548544]
変分自動エンコーダ(VAE)は教師なし学習の強力なアプローチである。
本稿では,VAEの整合性を強制する正規化手法を提案する。
論文 参考訳(メタデータ) (2021-05-31T10:26:32Z) - Improved Training of Sparse Coding Variational Autoencoder via Weight
Normalization [0.0]
我々は最近提案されたsparse coding variational autoencoder (svae) に着目した。
単位ノルムへのフィルタの投影がアクティブフィルタの数を劇的に増加させることを示す。
本結果は,データから疎表現を学習する上での重み正規化の重要性を強調した。
論文 参考訳(メタデータ) (2021-01-23T08:07:20Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Simple and Effective VAE Training with Calibrated Decoders [123.08908889310258]
変分オートエンコーダ(VAE)は、複雑な分布をモデル化するための効果的で簡単な方法である。
復号分布の不確かさを学習する校正復号器の影響について検討する。
本稿では,一般的なガウス復号器の簡易かつ斬新な修正を提案し,その予測分散を解析的に計算する。
論文 参考訳(メタデータ) (2020-06-23T17:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。