論文の概要: Generative Autoencoding of Dropout Patterns
- arxiv url: http://arxiv.org/abs/2310.01712v1
- Date: Tue, 3 Oct 2023 00:54:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 18:05:50.700751
- Title: Generative Autoencoding of Dropout Patterns
- Title(参考訳): ドロップアウトパターンの生成自動符号化
- Authors: Shunta Maeda
- Abstract要約: 本稿では,デ暗号オートエンコーダと呼ばれる生成モデルを提案する。
本モデルでは,各データポイントに一意なランダムドロップアウトパターンを割り当てる。
次に、オートエンコーダをトレーニングして、このパターンを符号化する情報として、対応するデータポイントを再構築する。
- 参考スコア(独自算出の注目度): 11.965844936801801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a generative model termed Deciphering Autoencoders. In this model,
we assign a unique random dropout pattern to each data point in the training
dataset and then train an autoencoder to reconstruct the corresponding data
point using this pattern as information to be encoded. Since the training of
Deciphering Autoencoders relies solely on reconstruction error, it offers more
stable training than other generative models. Despite its simplicity,
Deciphering Autoencoders show comparable sampling quality to DCGAN on the
CIFAR-10 dataset.
- Abstract(参考訳): 本稿では,デ暗号オートエンコーダと呼ばれる生成モデルを提案する。
このモデルでは、トレーニングデータセットの各データポイントにユニークなランダムドロップアウトパターンを割り当て、オートエンコーダをトレーニングして、このパターンを符号化する情報として、対応するデータポイントを再構築する。
Deciphering Autoencoderのトレーニングは再構築エラーのみに依存しているため、他の生成モデルよりも安定したトレーニングを提供する。
その単純さにもかかわらず、Deciphering AutoencodersはCIFAR-10データセット上でDCGANに匹敵するサンプリング品質を示している。
関連論文リスト
- Are We Using Autoencoders in a Wrong Way? [3.110260251019273]
オートエンコーダは次元減少、異常検出、特徴抽出に使用される。
潜在空間の形状を変更する不完全なオートエンコーダの標準トレーニングを再考した。
また,データセット全体からランダムサンプルを再構成する場合の潜伏空間の挙動についても検討した。
論文 参考訳(メタデータ) (2023-09-04T11:22:43Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Learning to Drop Out: An Adversarial Approach to Training Sequence VAEs [16.968490007064872]
シーケンシャルデータに可変オートエンコーダ(VAE)を適用することで、シーケンス生成、操作、構造化表現学習を制御する方法が提供される。
理論的には、これは遅延空間を利用して補償されるデコーダ入力によって提供されるポイントワイドな相互情報を除去することを示す。
標準テキストベンチマークデータセットの均一なドロップアウトと比較して、我々のターゲットとなるアプローチは、シーケンス性能と潜時空間でキャプチャされた情報の両方を増大させる。
論文 参考訳(メタデータ) (2022-09-26T11:21:19Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Anytime Sampling for Autoregressive Models via Ordered Autoencoding [88.01906682843618]
自動回帰モデルは画像生成や音声生成などのタスクに広く使われている。
これらのモデルのサンプリングプロセスは割り込みを許さず、リアルタイムの計算資源に適応できない。
いつでもサンプリングできる新しい自動回帰モデルファミリーを提案します。
論文 参考訳(メタデータ) (2021-02-23T05:13:16Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Batch norm with entropic regularization turns deterministic autoencoders
into generative models [14.65554816300632]
変分オートエンコーダはよく定義された深部生成モデルである。
本研究では、非決定論の情報源としてバッチ正規化を利用することで、決定論的オートエンコーダを生成モデルに変換するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-02-25T02:42:18Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。