論文の概要: Review helps learn better: Temporal Supervised Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2307.00811v2
- Date: Mon, 21 Aug 2023 08:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 23:15:34.420075
- Title: Review helps learn better: Temporal Supervised Knowledge Distillation
- Title(参考訳): レビューはより良い学習に役立つ: 時間的教師付き知識蒸留
- Authors: Dongwei Wang, Zhi Han, Yanmei Wang, Xiai Chen, Baichen Liu and Yandong
Tang
- Abstract要約: ネットワークトレーニング中、特徴写像の進化は時間的シーケンス特性に従うことが判明した。
この観察にインスパイアされた我々は、時間的監視された知識蒸留(TSKD)を提案する。
- 参考スコア(独自算出の注目度): 9.220654594406508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reviewing plays an important role when learning knowledge. The knowledge
acquisition at a certain time point may be strongly inspired with the help of
previous experience. Thus the knowledge growing procedure should show strong
relationship along the temporal dimension. In our research, we find that during
the network training, the evolution of feature map follows temporal sequence
property. A proper temporal supervision may further improve the network
training performance. Inspired by this observation, we propose Temporal
Supervised Knowledge Distillation (TSKD). Specifically, we extract the
spatiotemporal features in the different training phases of student by
convolutional Long Short-term memory network (Conv-LSTM). Then, we train the
student net through a dynamic target, rather than static teacher network
features. This process realizes the refinement of old knowledge in student
network, and utilizes it to assist current learning. Extensive experiments
verify the effectiveness and advantages of our method over existing knowledge
distillation methods, including various network architectures and different
tasks (image classification and object detection) .
- Abstract(参考訳): レビューは知識を学ぶ上で重要な役割を果たす。
ある時点における知識獲得は、以前の経験の助けによって強くインスパイアされるかもしれない。
したがって、知識の育成手順は時間次元に沿って強い関係を示すべきである。
本研究では,ネットワークトレーニング中に特徴地図の進化が時間系列特性に従うことを見出した。
適切な時間的監督は、ネットワークトレーニング性能をさらに向上させる可能性がある。
この観察に触発されて、時間的監視知識蒸留(TSKD)を提案する。
具体的には、畳み込み長短期記憶ネットワーク(Conv-LSTM)を用いて、学生の異なる訓練段階における時空間的特徴を抽出する。
次に,静的な教師ネットワーク機能ではなく,動的ターゲットを通じて学生ネットをトレーニングする。
このプロセスは,学生ネットワークにおける古知識の洗練を実現し,現在の学習を支援する。
様々なネットワークアーキテクチャや様々なタスク(画像分類とオブジェクト検出)を含む既存の知識蒸留法に対して,本手法の有効性とメリットを検証した。
関連論文リスト
- On effects of Knowledge Distillation on Transfer Learning [0.0]
本稿では,知識蒸留と伝達学習を組み合わせたTL+KDという機械学習アーキテクチャを提案する。
我々は,教師ネットワークの指導と知識を微調整中に利用することにより,学生ネットワークを改良し,精度などの検証性能を向上させることができることを示した。
論文 参考訳(メタデータ) (2022-10-18T08:11:52Z) - Learning with Recoverable Forgetting [77.56338597012927]
学習wIth Recoverable Forgettingは、タスクまたはサンプル固有の知識の除去とリカバリを明示的に処理する。
具体的には、LIRFは2つの革新的なスキーム、すなわち知識預金と離脱をもたらす。
いくつかのデータセットで実験を行い、提案したLIRF戦略が一般化能力を満足させる結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-07-17T16:42:31Z) - Theoretical Understanding of the Information Flow on Continual Learning
Performance [2.741266294612776]
連続学習(Continuous Learning, CL)とは、エージェントがデータストリームから連続的に学習しなければならない設定である。
ネットワーク内の情報フローとCL性能の関係について検討し,「層間情報フローの知識はCFを緩和するためにどのように利用できるのか?」という疑問に答える。
我々の分析は、段階的なタスク学習プロセスにおいて、レイヤ内の情報適応に関する新しい洞察を提供する。
論文 参考訳(メタデータ) (2022-04-26T00:35:58Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - Distilling Knowledge via Knowledge Review [69.15050871776552]
教師と学生のネットワーク間の接続経路のクロスレベル要因を研究し、その大きな重要性を明らかにします。
知識蒸留において初めて, クロスステージ接続経路が提案されている。
最終的に設計されたネストでコンパクトなフレームワークは、無視できるオーバーヘッドを必要とし、さまざまなタスクで他のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-04-19T04:36:24Z) - Student Network Learning via Evolutionary Knowledge Distillation [22.030934154498205]
教師知識の伝達効率を改善するための進化的知識蒸留手法を提案する。
進化的教師は、固定された予習教師の代わりにオンラインで学習され、学生ネットワーク学習を監督するために、中間的知識を継続的に伝達する。
このようにして、学生は豊富な内部知識を同時に獲得し、その成長過程を捉え、効果的なネットワーク学習につながる。
論文 参考訳(メタデータ) (2021-03-23T02:07:15Z) - Collaborative Distillation in the Parameter and Spectrum Domains for
Video Action Recognition [79.60708268515293]
本稿では,行動認識のための小型かつ効率的なネットワークの訓練方法について検討する。
周波数領域における2つの蒸留戦略,すなわち特徴スペクトルとパラメータ分布蒸留を提案する。
提案手法は,同じバックボーンを持つ最先端の手法よりも高い性能を実現することができる。
論文 参考訳(メタデータ) (2020-09-15T07:29:57Z) - Point Adversarial Self Mining: A Simple Method for Facial Expression
Recognition [79.75964372862279]
本稿では,表情認識における認識精度を向上させるために,PASM(Point Adversarial Self Mining)を提案する。
PASMは、目標タスクに関連する最も情報性の高い位置を見つけるために、ポイント敵攻撃法と訓練された教師ネットワークを使用する。
適応学習教材の生成と教師/学生の更新を複数回行うことができ、ネットワーク能力が反復的に向上する。
論文 参考訳(メタデータ) (2020-08-26T06:39:24Z) - Interactive Knowledge Distillation [79.12866404907506]
本稿では,効率的な知識蒸留のための対話型指導戦略を活用するために,対話型知識蒸留方式を提案する。
蒸留工程では,教師と学生のネットワーク間の相互作用を交換操作により行う。
教員ネットワークの典型的な設定による実験により,IAKDで訓練された学生ネットワークは,従来の知識蒸留法で訓練された学生ネットワークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-03T03:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。