論文の概要: Denoising Diffusion Autoencoders are Unified Self-supervised Learners
- arxiv url: http://arxiv.org/abs/2303.09769v1
- Date: Fri, 17 Mar 2023 04:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:40:41.315605
- Title: Denoising Diffusion Autoencoders are Unified Self-supervised Learners
- Title(参考訳): denoising diffusion autoencoderは統一された自己教師付き学習者である
- Authors: Weilai Xiang, Hongyu Yang, Di Huang, Yunhong Wang
- Abstract要約: 本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層で線形分離可能な表現を強く学習している。
CIFAR-10とTiny-ImageNetで95.9%,50.0%の線形プローブ精度を実現する。
- 参考スコア(独自算出の注目度): 58.85929791540584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by recent advances in diffusion models, which are reminiscent of
denoising autoencoders, we investigate whether they can acquire discriminative
representations for classification via generative pre-training. This paper
shows that the networks in diffusion models, namely denoising diffusion
autoencoders (DDAE), are unified self-supervised learners: by pre-training on
unconditional image generation, DDAE has already learned strongly
linear-separable representations at its intermediate layers without auxiliary
encoders, thus making diffusion pre-training emerge as a general approach for
self-supervised generative and discriminative learning. To verify this, we
perform linear probe and fine-tuning evaluations on multi-class datasets. Our
diffusion-based approach achieves 95.9% and 50.0% linear probe accuracies on
CIFAR-10 and Tiny-ImageNet, respectively, and is comparable to masked
autoencoders and contrastive learning for the first time. Additionally,
transfer learning from ImageNet confirms DDAE's suitability for latent-space
Vision Transformers, suggesting the potential for scaling DDAEs as unified
foundation models.
- Abstract(参考訳): 自動エンコーダを連想させる拡散モデルの最近の進歩に触発され、生成前訓練により分類のための識別的表現を得られるかを検討する。
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,非条件画像生成の事前学習により,補助エンコーダを使わずに中間層で線形分離表現を学習し,拡散事前学習を自己教師付き生成・識別学習の一般的なアプローチとして実現していることを示す。
これを検証するために,マルチクラスデータセット上で線形プローブおよび微調整評価を行う。
拡散に基づくアプローチでは、cifar-10とtiny-imagenetの95.9%と50.0%の線形プローブアキュラリティを達成し、初めてマスク付きオートエンコーダとコントラスト学習に匹敵する。
さらに、ImageNetからの転送学習はDDAEが潜在空間ビジョン変換器に適合していることを確認し、DDAEを統一基盤モデルとしてスケールする可能性を示唆している。
関連論文リスト
- Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Unified Auto-Encoding with Masked Diffusion [15.264296748357157]
我々はUMD(Unified Masked Diffusion)と呼ばれる,統合された自己監督的目標を提案する。
UMDは、パッチベースとノイズベースの破損テクニックを1つの自動エンコーディングフレームワークに組み合わせている。
下流の生成および表現学習タスクにおいて、高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-25T16:24:34Z) - Denoising Autoregressive Representation Learning [13.185567468951628]
DARLはデコーダのみのトランスフォーマーを用いて,画像パッチの自動回帰予測を行う。
提案手法では, 適応型ノイズスケジュールを用いて学習表現を改良し, より大規模なモデルでより長い訓練を行えることを示す。
論文 参考訳(メタデータ) (2024-03-08T10:19:00Z) - SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - Diffusion Models as Masked Autoencoders [52.442717717898056]
拡散モデルに対する近年の関心を踏まえて、生成的に事前学習された視覚表現を再考する。
拡散モデルによる直接事前学習では強い表現は得られないが、マスク付き入力上での拡散モデルと公式拡散モデルをマスク付きオートエンコーダ(DiffMAE)として条件付ける。
設計選択の長所と短所について包括的な研究を行い、拡散モデルとマスク付きオートエンコーダ間の接続を構築する。
論文 参考訳(メタデータ) (2023-04-06T17:59:56Z) - End-to-End Diffusion Latent Optimization Improves Classifier Guidance [81.27364542975235]
拡散潜水剤(DOODL)の直接最適化は,新しいガイダンス手法である。
拡散潜伏剤の最適化によるプラグアンドプレイ誘導を可能にする。
計算と人的評価の指標において、一段階の分類器ガイダンスよりも優れている。
論文 参考訳(メタデータ) (2023-03-23T22:43:52Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。