論文の概要: Data-Free Knowledge Amalgamation via Group-Stack Dual-GAN
- arxiv url: http://arxiv.org/abs/2003.09088v1
- Date: Fri, 20 Mar 2020 03:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:33:33.213999
- Title: Data-Free Knowledge Amalgamation via Group-Stack Dual-GAN
- Title(参考訳): Group-Stack Dual-GANによるデータ自由知識の集約
- Authors: Jingwen Ye, Yixin Ji, Xinchao Wang, Xin Gao, Mingli Song
- Abstract要約: 複数のシングルタスク/マルチタスクの教師から,多タスクの学生ネットワークを構築するために,データフリーな知識アマルガメート戦略を提案する。
トレーニングデータを持たない提案手法は, フル教師付き手法と比較して, 驚くほど競争力のある結果が得られる。
- 参考スコア(独自算出の注目度): 80.17705319689139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning have provided procedures for learning one
network to amalgamate multiple streams of knowledge from the pre-trained
Convolutional Neural Network (CNN) models, thus reduce the annotation cost.
However, almost all existing methods demand massive training data, which may be
unavailable due to privacy or transmission issues. In this paper, we propose a
data-free knowledge amalgamate strategy to craft a well-behaved multi-task
student network from multiple single/multi-task teachers. The main idea is to
construct the group-stack generative adversarial networks (GANs) which have two
dual generators. First one generator is trained to collect the knowledge by
reconstructing the images approximating the original dataset utilized for
pre-training the teachers. Then a dual generator is trained by taking the
output from the former generator as input. Finally we treat the dual part
generator as the target network and regroup it. As demonstrated on several
benchmarks of multi-label classification, the proposed method without any
training data achieves the surprisingly competitive results, even compared with
some full-supervised methods.
- Abstract(参考訳): ディープラーニングの最近の進歩は、事前学習された畳み込みニューラルネットワーク(cnn)モデルから知識ストリームを多元化するために1つのネットワークを学習する手順を提供し、アノテーションコストを削減している。
しかし、既存のほとんどの手法は、プライバシーや送信の問題のために利用できない大規模なトレーニングデータを必要とする。
本稿では,複数のシングルタスク/マルチタスクの教師から,多タスクの学生ネットワークを構築するための,データフリーな知識アマルガメート戦略を提案する。
主な考え方は、2つの双対発生器を持つグループスタック生成対向ネットワーク(GAN)を構築することである。
まず、教師の事前学習に使用する元のデータセットを近似したイメージを再構成することにより、知識収集を訓練する。
そして、前者生成器からの出力を入力としてデュアルジェネレータを訓練する。
最後に、デュアルパートジェネレータをターゲットネットワークとして扱い、再グループ化する。
マルチラベル分類のいくつかのベンチマークで示されたように、トレーニングデータを持たない提案手法は、フル教師付き手法と比較しても驚くほど競合的な結果が得られる。
関連論文リスト
- Distribution Shift Matters for Knowledge Distillation with Webly
Collected Images [91.66661969598755]
異なる分布間の知識蒸留という新しい手法を提案する(KD$3$)。
まず,教師ネットワークと学生ネットワークの併用予測に基づいて,Webで収集したデータから有用なトレーニングインスタンスを動的に選択する。
また、MixDistributionと呼ばれる新しいコントラスト学習ブロックを構築して、新しい分散のインスタンスアライメントで摂動データを生成します。
論文 参考訳(メタデータ) (2023-07-21T10:08:58Z) - Learning Modular Structures That Generalize Out-of-Distribution [1.7034813545878589]
本稿では、O.O.D.の一般化手法について述べる。トレーニングを通じて、複数のトレーニング領域にまたがってよく再利用されるネットワークの機能のみをモデルが保持することを奨励する。
本手法は,2つの相補的ニューロンレベル正規化器とネットワーク上の確率的微分可能なバイナリマスクを組み合わせることで,元のネットワークよりも優れたO.O.D.性能を実現するモジュールサブネットワークを抽出する。
論文 参考訳(メタデータ) (2022-08-07T15:54:19Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Self-Supervised Learning for Binary Networks by Joint Classifier
Training [11.612308609123566]
本稿では,バイナリネットワークのための自己教師付き学習手法を提案する。
バイナリネットワークのより良いトレーニングのために,特徴類似性損失,損失項の動的バランススキーム,マルチステージトレーニングの修正を提案する。
実証実験により、BSSLは、下流タスクにおけるバイナリネットワークの自己教師付き学習ベースラインよりも優れ、特定のタスクにおける教師付き事前学習よりも優れています。
論文 参考訳(メタデータ) (2021-10-17T15:38:39Z) - Dual-Teacher Class-Incremental Learning With Data-Free Generative Replay [49.691610143011566]
クラスインクリメンタルラーニング(CIL)のための2つの新しい知識伝達手法を提案する。
まず,データフリーな生成リプレイ(DF-GR)を提案し,生成モデルからの合成サンプルを用いてCILの破滅的忘れを緩和する。
第2に,2人の教師から1人の生徒に知識蒸留を行うための2つの教員情報蒸留(DT-ID)を導入する。
論文 参考訳(メタデータ) (2021-06-17T22:13:15Z) - Training ELECTRA Augmented with Multi-word Selection [53.77046731238381]
本稿では,マルチタスク学習に基づくELECTRAの改良を目的としたテキストエンコーダ事前学習手法を提案する。
具体的には、識別器を訓練し、置換トークンを同時に検出し、候補集合から元のトークンを選択する。
論文 参考訳(メタデータ) (2021-05-31T23:19:00Z) - Dual Discriminator Adversarial Distillation for Data-free Model
Compression [36.49964835173507]
我々は、トレーニングデータやメタデータを使わずにニューラルネットワークを蒸留するために、Dual Discriminator Adversarial Distillation (DDAD)を提案する。
具体的には, 生成器を用いて, 元のトレーニングデータを模倣した二重判別器の対数蒸留法を用いてサンプルを作成する。
提案手法は,教師のネットワークを近い距離で近似する効率的な学生ネットワークである。
論文 参考訳(メタデータ) (2021-04-12T12:01:45Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Multi-modal AsynDGAN: Learn From Distributed Medical Image Data without
Sharing Private Information [55.866673486753115]
プライバシーとセキュリティを守るために拡張可能で弾力性のある学習フレームワークを提案します。
提案するフレームワークは分散Asynchronized Discriminator Generative Adrial Networks (AsynDGAN) である。
論文 参考訳(メタデータ) (2020-12-15T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。