論文の概要: Generative Zero-shot Network Quantization
- arxiv url: http://arxiv.org/abs/2101.08430v1
- Date: Thu, 21 Jan 2021 04:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 08:06:32.704663
- Title: Generative Zero-shot Network Quantization
- Title(参考訳): 生成ゼロショットネットワーク量子化
- Authors: Xiangyu He, Qinghao Hu, Peisong Wang, Jian Cheng
- Abstract要約: 畳み込みニューラルネットワークは、低レベルの画像生成と復元における多数のトレーニングサンプルから現実的な画像優先度を学習することができる。
また,高レベル画像認識タスクでは,本質的バッチ正規化(bn)統計をトレーニングデータなしで活用することにより,各カテゴリの「現実的」画像をさらに再構築できることを示す。
- 参考スコア(独自算出の注目度): 41.75769117366117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks are able to learn realistic image priors from
numerous training samples in low-level image generation and restoration. We
show that, for high-level image recognition tasks, we can further reconstruct
"realistic" images of each category by leveraging intrinsic Batch Normalization
(BN) statistics without any training data. Inspired by the popular VAE/GAN
methods, we regard the zero-shot optimization process of synthetic images as
generative modeling to match the distribution of BN statistics. The generated
images serve as a calibration set for the following zero-shot network
quantizations. Our method meets the needs for quantizing models based on
sensitive information, \textit{e.g.,} due to privacy concerns, no data is
available. Extensive experiments on benchmark datasets show that, with the help
of generated data, our approach consistently outperforms existing data-free
quantization methods.
- Abstract(参考訳): 畳み込みニューラルネットワークは、低レベルの画像生成と復元において、多数のトレーニングサンプルから現実的なイメージ先行を学習することができる。
また,高レベル画像認識タスクでは,本質的バッチ正規化(bn)統計をトレーニングデータなしで活用することにより,各カテゴリの「現実的」画像をさらに再構築できることを示す。
VAE/GAN法にインスパイアされた合成画像のゼロショット最適化プロセスは、BN統計量の分布に一致する生成的モデリングであると考えている。
生成された画像は、以下のゼロショットネットワーク量子化のためのキャリブレーションセットとして機能する。
本手法は,プライバシー上の懸念から,機密情報に基づくモデルの定量化の必要性を満たす。
ベンチマークデータセットに関する広範な実験は、生成されたデータの助けを借りて、我々のアプローチが既存のデータフリー量子化手法を一貫して上回っていることを示している。
関連論文リスト
- DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Few-shot Online Anomaly Detection and Segmentation [29.693357653538474]
本稿では,難易度の高いオンライン異常検出・セグメンテーション(FOADS)の課題に対処することに焦点を当てる。
FOADSフレームワークでは、モデルを数ショットの通常のデータセットでトレーニングし、その後、正常サンプルと異常サンプルの両方を含む未ラベルのストリーミングデータを活用することで、その能力の検査と改善を行う。
限られたトレーニングサンプルを用いた性能向上のために,ImageNetで事前学習したCNNから抽出したマルチスケール特徴埋め込みを用いて,ロバストな表現を得る。
論文 参考訳(メタデータ) (2024-03-27T02:24:00Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - Post-training Model Quantization Using GANs for Synthetic Data
Generation [57.40733249681334]
量子化法における実データを用いたキャリブレーションの代用として合成データを用いた場合について検討する。
本稿では,StyleGAN2-ADAが生成したデータと事前学習したDiStyleGANを用いて定量化したモデルの性能と,実データを用いた量子化とフラクタル画像に基づく代替データ生成手法との比較を行った。
論文 参考訳(メタデータ) (2023-05-10T11:10:09Z) - Zero-Shot Learning of a Conditional Generative Adversarial Network for
Data-Free Network Quantization [44.22469647001933]
本研究では,条件付き生成逆ネットワーク(CGAN)をトレーニングデータを用いずにトレーニングする方法を提案する。
条件付きジェネレータのゼロショット学習は、事前訓練された識別(分類)モデルのみを必要とし、訓練データを必要としない。
深層ニューラルネットワークのデータ自由量子化におけるZS-CGANの有用性を示す。
論文 参考訳(メタデータ) (2022-10-26T00:05:57Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Sparse Signal Models for Data Augmentation in Deep Learning ATR [0.8999056386710496]
ドメイン知識を取り入れ,データ集約学習アルゴリズムの一般化能力を向上させるためのデータ拡張手法を提案する。
本研究では,空間領域における散乱中心のスパース性とアジムタル領域における散乱係数の滑らかな変動構造を活かし,過パラメータモデルフィッティングの問題を解く。
論文 参考訳(メタデータ) (2020-12-16T21:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。