論文の概要: New Perspective on Progressive GANs Distillationfor One-class Novelty
Detection
- arxiv url: http://arxiv.org/abs/2109.07295v1
- Date: Wed, 15 Sep 2021 13:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:58:59.021699
- Title: New Perspective on Progressive GANs Distillationfor One-class Novelty
Detection
- Title(参考訳): 一級ノベルティ検出のためのプログレッシブガンス蒸留の新展開
- Authors: Zhiwei Zhang, Yu Dong, Hanyu Peng, Shifeng Chen
- Abstract要約: 一級ノベルティ検出は、正常なインスタンスと異なる分布を持つ異常なインスタンスを識別する。
本稿では,予測デコーダエンコーダスキーム(EDE-GAN)に基づく生成アドバーサリアルネットワークを用いて,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 20.68924663999372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-class novelty detection is conducted to iden-tify anomalous instances,
with different distributions from theexpected normal instances. In this paper,
the Generative Adver-sarial Network based on the Encoder-Decoder-Encoder
scheme(EDE-GAN) achieves state-of-the-art performance. The two fac-tors bellow
serve the above purpose: 1) The EDE-GAN calculatesthe distance between two
latent vectors as the anomaly score,which is unlike the previous methods by
utilizing the reconstruc-tion error between images. 2) The model obtains best
resultswhen the batch size is set to 1. To illustrate their superiority,we
design a new GAN architecture, and compareperformances according to different
batch sizes. Moreover, withexperimentation leads to discovery, our result
implies there is alsoevidence of just how beneficial constraint on the latent
space arewhen engaging in model training.In an attempt to learn compact and
fast models, we present anew technology, Progressive Knowledge Distillation
with GANs(P-KDGAN), which connects two standard GANs through thedesigned
distillation loss. Two-step progressive learning continu-ously augments the
performance of student GANs with improvedresults over single-step approach. Our
experimental results onCIFAR-10, MNIST, and FMNIST datasets illustrate that
P-KDGAN improves the performance of the student GAN by2.44%, 1.77%, and 1.73%
when compressing the computationat ratios of 24.45:1, 311.11:1, and 700:1,
respectively.
- Abstract(参考訳): 一級ノベルティ検出は、予測された正常なインスタンスと異なる分布を持つ異常なインスタンスを識別する。
本稿では,Encoder-Decoder-Encoderスキーム(EDE-GAN)に基づく生成アドバーサリアルネットワークにより,最先端の性能を実現する。
fac-tors bellowは以下の目的を果たす。
1) ede-ganは, 2つの潜在ベクトル間の距離を異常スコアとして算出する。
2) バッチサイズが 1 に設定されると,モデルが最良の結果を得る。
それらの優位性を説明するため、我々は新しいGANアーキテクチャを設計し、異なるバッチサイズで性能を比較する。
さらに,実験を伴わずにモデルトレーニングに携わる潜伏空間における有益な制約がいかに有益かを示す結果が得られた。我々は,コンパクトかつ高速なモデルを学ぶために,提案した蒸留損失を通じて2つの標準GANを接続する新しい技術であるプログレッシブ・ナレッジ・蒸留(P-KDGAN)を提案する。
2段階のプログレッシブラーニングは、シングルステップアプローチよりも改良されたresultで、学生ganのパフォーマンスを継続的に強化する。
実験結果から, P-KDGANは, 24.45:1, 311.11:1, 700:1の計算率でそれぞれ2.44%, 1.77%, 1.73%向上することがわかった。
関連論文リスト
- Optimizing OOD Detection in Molecular Graphs: A Novel Approach with Diffusion Models [71.39421638547164]
本稿では,入力分子と再構成グラフの類似性を比較する補助拡散モデルに基づくフレームワークを用いてOOD分子を検出することを提案する。
IDトレーニングサンプルの再構成に向けた生成バイアスのため、OOD分子の類似度スコアは検出を容易にするためにはるかに低い。
本研究は,PGR-MOOD(PGR-MOOD)とよばれる分子OOD検出のためのプロトタイプグラフ再構成のアプローチを開拓し,3つのイノベーションを生かした。
論文 参考訳(メタデータ) (2024-04-24T03:25:53Z) - Attention based Dual-Branch Complex Feature Fusion Network for
Hyperspectral Image Classification [1.3249509346606658]
提案モデルはパヴィア大学とサリナスのデータセットで評価される。
その結果,提案手法は,全体の精度,平均精度,Kappaにおいて,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-11-02T22:31:24Z) - One-for-All: Bridge the Gap Between Heterogeneous Architectures in
Knowledge Distillation [69.65734716679925]
知識蒸留は,教師が指導する学習手法を通じて,モデル性能を向上させる上で,極めて効果的な手法であることが証明されている。
既存の蒸留法のほとんどは、教師と生徒のモデルが同じモデルファミリーに属するという前提で設計されている。
我々は, ヘテロジニアスアーキテクチャ間の蒸留性能を大幅に向上させる, OFA-KDという, 単純で効果的な一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元
論文 参考訳(メタデータ) (2023-10-30T11:13:02Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - FakeCLR: Exploring Contrastive Learning for Solving Latent Discontinuity
in Data-Efficient GANs [24.18718734850797]
Data-Efficient GAN(DE-GAN)は、限られたトレーニングデータで生成モデルを学習することを目的としている。
対照的な学習は、DE-GANの合成品質を高める大きな可能性を示している。
偽のサンプルに対してのみ対照的な学習を行うFakeCLRを提案する。
論文 参考訳(メタデータ) (2022-07-18T14:23:38Z) - An Empirical Study on GANs with Margin Cosine Loss and Relativistic
Discriminator [4.899818550820575]
我々は新しい損失関数、すなわち相対論的Margin Cosine Loss(RMCosGAN)を導入する。
本稿では,RCCosGANの性能と既存の損失関数を比較する。
実験の結果,RCCosGANは既存の画像よりも優れており,画像の品質が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2021-10-21T17:25:47Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - Disentangle Your Dense Object Detector [82.22771433419727]
深層学習に基づく高密度物体検出器はここ数年で大きな成功を収め、ビデオ理解などのマルチメディアアプリケーションにも応用されてきた。
しかし、現在の高密度検出器の訓練パイプラインは、保持できない多くの接続に妥協されている。
そこで本研究では, 簡易かつ効果的な遠心分離機構を設計し, 現在の最先端検出器に統合するDED(Disentangled Dense Object Detector)を提案する。
論文 参考訳(メタデータ) (2021-07-07T00:52:16Z) - P-KDGAN: Progressive Knowledge Distillation with GANs for One-class
Novelty Detection [24.46562699161406]
1クラスのノベルティ検出は、期待される通常のインスタンスに適合しない異常なインスタンスを特定することである。
ディープニューラルネットワークは、リソース制限されたデバイスにデプロイするには過度にパラメータ化されている。
GANによるプログレッシブ・ナレッジ蒸留(PKDGAN)は,コンパクトで高速な新規検出ネットワークを学習するために提案されている。
論文 参考訳(メタデータ) (2020-07-14T10:44:57Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。