論文の概要: DreamTeacher: Pretraining Image Backbones with Deep Generative Models
- arxiv url: http://arxiv.org/abs/2307.07487v1
- Date: Fri, 14 Jul 2023 17:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-17 13:02:05.107901
- Title: DreamTeacher: Pretraining Image Backbones with Deep Generative Models
- Title(参考訳): DreamTeacher: 深層生成モデルによるイメージバックボーンの事前トレーニング
- Authors: Daiqing Li, Huan Ling, Amlan Kar, David Acuna, Seung Wook Kim, Karsten
Kreis, Antonio Torralba, Sanja Fidler
- Abstract要約: 本稿では、下流画像バックボーンの事前学習に生成ネットワークを利用する自己教師付き特徴表現学習フレームワークを提案する。
1)画像Netなどの大規模ラベル付きデータセット上で,これらのバックボーンを事前学習する代替として,学習した生成特徴を対象画像のバックボーンに蒸留する。
私たちのDreamTeacherは、ボード全体で既存の自己指導型表現学習のアプローチを大幅に上回っていることを実証的に見出した。
- 参考スコア(独自算出の注目度): 103.62397699392346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce a self-supervised feature representation learning
framework DreamTeacher that utilizes generative networks for pre-training
downstream image backbones. We propose to distill knowledge from a trained
generative model into standard image backbones that have been well engineered
for specific perception tasks. We investigate two types of knowledge
distillation: 1) distilling learned generative features onto target image
backbones as an alternative to pretraining these backbones on large labeled
datasets such as ImageNet, and 2) distilling labels obtained from generative
networks with task heads onto logits of target backbones. We perform extensive
analyses on multiple generative models, dense prediction benchmarks, and
several pre-training regimes. We empirically find that our DreamTeacher
significantly outperforms existing self-supervised representation learning
approaches across the board. Unsupervised ImageNet pre-training with
DreamTeacher leads to significant improvements over ImageNet classification
pre-training on downstream datasets, showcasing generative models, and
diffusion generative models specifically, as a promising approach to
representation learning on large, diverse datasets without requiring manual
annotation.
- Abstract(参考訳): 本稿では,下流画像バックボーンの事前学習に生成ネットワークを利用する自己教師付き特徴表現学習フレームワークdreamteacherを提案する。
本稿では,訓練された生成モデルからの知識を,特定の知覚タスクによく設計された標準画像バックボーンに抽出する。
我々は2種類の知識蒸留について検討する。
1)imagenetのような大きなラベル付きデータセット上でこれらのバックボーンを事前トレーニングする代わりに、学習した生成機能をターゲットイメージバックボーンに蒸留する。
2) 対象バックボーンのロジット上にタスクヘッドを有する生成ネットワークから得られるラベルを蒸留する。
我々は、複数の生成モデル、密度予測ベンチマーク、およびいくつかの事前学習体制について広範な分析を行う。
私たちのDreamTeacherは、ボード全体で、既存の自己教師型表現学習アプローチよりも大幅に優れています。
dreamteacherによる教師なしのimagenet事前トレーニングは、ダウンストリームデータセットでのimagenet分類の事前トレーニング、生成モデルの拡張、および拡散生成モデルよりも大幅に改善され、手動のアノテーションを必要とせず、大規模で多様なデータセットでの表現学習に有望なアプローチとなる。
関連論文リスト
- Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Machine Unlearning for Image-to-Image Generative Models [18.952634119351465]
本稿では、画像から画像への生成モデルのための機械学習のための統一フレームワークを提供する。
本稿では,厳密な理論解析を基盤とした計算効率のよいアルゴリズムを提案する。
ImageNet-1KとPlaces-365の2つの大規模データセットに関する実証研究は、我々のアルゴリズムが保持サンプルの可用性に依存していないことを示している。
論文 参考訳(メタデータ) (2024-02-01T05:35:25Z) - Distilling Knowledge from Self-Supervised Teacher by Embedding Graph
Alignment [52.704331909850026]
我々は、自己指導型事前学習モデルから他の学生ネットワークへ知識を伝達するための新しい知識蒸留フレームワークを定式化した。
自己教師型学習におけるインスタンス識別の精神に触発され,特徴埋め込み空間におけるグラフ定式化によるインスタンスとインスタンスの関係をモデル化する。
蒸留方式は, 学生ネットワーク上での表現学習を促進するために, 自己指導型知識の伝達に柔軟に適用できる。
論文 参考訳(メタデータ) (2022-11-23T19:27:48Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Towards Learning a Vocabulary of Visual Concepts and Operators using
Deep Neural Networks [0.0]
我々は、MNIST画像を用いて訓練されたモデルの学習された特徴マップを分析し、より説明可能な予測を行う。
MNIST画像を用いて学習した変分オートエンコーダから視覚概念を生成する。
再建損失(平均2乗誤差)を初期値120から60に減らすことができた。
論文 参考訳(メタデータ) (2021-09-01T16:34:57Z) - Automated Cleanup of the ImageNet Dataset by Model Consensus,
Explainability and Confident Learning [0.0]
ImageNetは、ILSVRC12Netでトレーニングされた様々な畳み込みニューラルネットワーク(CNN)のバックボーンである。
本稿では,モデルのコンセンサス,説明可能性,自信のある学習に基づく自動アプリケーションについて述べる。
ImageNet-CleanはSqueezeNetおよびEfficientNet-B0モデルのモデルパフォーマンスを2-2.4%向上させる。
論文 参考訳(メタデータ) (2021-03-30T13:16:35Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Distilling Visual Priors from Self-Supervised Learning [24.79633121345066]
畳み込みニューラルネットワーク(CNN)は、小さなトレーニングデータセットに適合する傾向にある。
データ不足条件下での画像分類のためのCNNモデルの一般化能力を向上させるために,自己教師付き学習と知識蒸留を活用した2相パイプラインを提案する。
論文 参考訳(メタデータ) (2020-08-01T13:07:18Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。