論文の概要: Contrastive Model Inversion for Data-Free Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2105.08584v1
- Date: Tue, 18 May 2021 15:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 14:17:37.849491
- Title: Contrastive Model Inversion for Data-Free Knowledge Distillation
- Title(参考訳): データレス知識蒸留におけるコントラストモデルインバージョン
- Authors: Gongfan Fang, Jie Song, Xinchao Wang, Chengchao Shen, Xingen Wang,
Mingli Song
- Abstract要約: そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 60.08025054715192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model inversion, whose goal is to recover training data from a pre-trained
model, has been recently proved feasible. However, existing inversion methods
usually suffer from the mode collapse problem, where the synthesized instances
are highly similar to each other and thus show limited effectiveness for
downstream tasks, such as knowledge distillation. In this paper, we propose
Contrastive Model Inversion~(CMI), where the data diversity is explicitly
modeled as an optimizable objective, to alleviate the mode collapse issue. Our
main observation is that, under the constraint of the same amount of data,
higher data diversity usually indicates stronger instance discrimination. To
this end, we introduce in CMI a contrastive learning objective that encourages
the synthesizing instances to be distinguishable from the already synthesized
ones in previous batches. Experiments of pre-trained models on CIFAR-10,
CIFAR-100, and Tiny-ImageNet demonstrate that CMI not only generates more
visually plausible instances than the state of the arts, but also achieves
significantly superior performance when the generated data are used for
knowledge distillation. Code is available at
\url{https://github.com/zju-vipa/DataFree}.
- Abstract(参考訳): トレーニング済みのモデルからトレーニングデータを復元することを目的としているモデル反転は、最近実現可能であることが証明された。
しかし, 既存の逆転法では, 合成されたインスタンスは互いに非常によく似ており, 知識蒸留などの下流タスクに限定的な有効性を示すモード崩壊問題に悩まされることが多い。
本稿では,データ多様性を最適化可能な目的として明示的にモデル化し,モード崩壊問題を緩和するContrastive Model Inversion~(CMI)を提案する。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
この目的のために、我々はCMIにおいて、前回のバッチで既に合成されたものと区別できるように合成インスタンスを奨励する対照的な学習目標を紹介した。
CIFAR-10, CIFAR-100, Tiny-ImageNetの事前学習モデル実験により, CMIは芸術的状況よりも視覚的に可視なインスタンスを生成するだけでなく, 生成したデータを知識蒸留に使用する場合, 極めて優れた性能が得られることが示された。
コードは \url{https://github.com/zju-vipa/DataFree} で入手できる。
関連論文リスト
- Self-Consuming Generative Models with Curated Data Provably Optimize Human Preferences [20.629333587044012]
本研究では,データキュレーションが生成モデルの反復的再学習に与える影響について検討する。
報奨モデルに従ってデータをキュレートすると、反復的再訓練手順の期待報酬が最大になることを示す。
論文 参考訳(メタデータ) (2024-06-12T21:28:28Z) - Self-supervised Dataset Distillation: A Good Compression Is All You Need [23.02066055996762]
SC-DDは, データセット蒸留のための簡易かつ効果的な自己教師圧縮フレームワークである。
提案したSC-DDは、より大規模なモデルを用いる場合、従来の最先端のデータセット蒸留法よりも優れている。
CIFAR-100, Tiny-ImageNet, ImageNet-1Kデータセットを用いて提案手法の優位性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T17:56:40Z) - SCME: A Self-Contrastive Method for Data-free and Query-Limited Model
Extraction Attack [18.998300969035885]
モデル抽出は、代替モデル上で逆例を生成することによって、ターゲットモデルを騙す。
本稿では,偽データの合成におけるクラス間およびクラス内多様性を考慮した,SCME という新しいデータフリーモデル抽出手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T10:41:45Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Maintaining Stability and Plasticity for Predictive Churn Reduction [8.971668467496055]
我々は,累積モデル組合せ (AMC) という解を提案する。
AMCは一般的な手法であり、モデルやデータ特性に応じてそれぞれ独自の利点を持ついくつかの事例を提案する。
論文 参考訳(メタデータ) (2023-05-06T20:56:20Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Disentangled Recurrent Wasserstein Autoencoder [17.769077848342334]
Recurrent Wasserstein Autoencoder (R-WAE)はシーケンシャルデータの生成モデリングのための新しいフレームワークである。
R-WAEは入力シーケンスの表現を静的および動的因子に切り離す。
私達のモデルは無条件のビデオ生成およびdisentanglementの点では同じ設定の他のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-01-19T07:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。