論文の概要: Point Adversarial Self Mining: A Simple Method for Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2008.11401v2
- Date: Sat, 8 May 2021 10:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:36:55.754553
- Title: Point Adversarial Self Mining: A Simple Method for Facial Expression
Recognition
- Title(参考訳): 対向的自己マイニング : 表情認識のための簡便な手法
- Authors: Ping Liu, Yuewei Lin, Zibo Meng, Lu Lu, Weihong Deng, Joey Tianyi
Zhou, and Yi Yang
- Abstract要約: 本稿では,表情認識における認識精度を向上させるために,PASM(Point Adversarial Self Mining)を提案する。
PASMは、目標タスクに関連する最も情報性の高い位置を見つけるために、ポイント敵攻撃法と訓練された教師ネットワークを使用する。
適応学習教材の生成と教師/学生の更新を複数回行うことができ、ネットワーク能力が反復的に向上する。
- 参考スコア(独自算出の注目度): 79.75964372862279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a simple yet effective approach, named Point
Adversarial Self Mining (PASM), to improve the recognition accuracy in facial
expression recognition. Unlike previous works focusing on designing specific
architectures or loss functions to solve this problem, PASM boosts the network
capability by simulating human learning processes: providing updated learning
materials and guidance from more capable teachers. Specifically, to generate
new learning materials, PASM leverages a point adversarial attack method and a
trained teacher network to locate the most informative position related to the
target task, generating harder learning samples to refine the network. The
searched position is highly adaptive since it considers both the statistical
information of each sample and the teacher network capability. Other than being
provided new learning materials, the student network also receives guidance
from the teacher network. After the student network finishes training, the
student network changes its role and acts as a teacher, generating new learning
materials and providing stronger guidance to train a better student network.
The adaptive learning materials generation and teacher/student update can be
conducted more than one time, improving the network capability iteratively.
Extensive experimental results validate the efficacy of our method over the
existing state of the arts for facial expression recognition.
- Abstract(参考訳): 本稿では,表情認識における認識精度を向上させるために,PASM(Point Adversarial Self Mining)というシンプルなアプローチを提案する。
この問題を解決するために特定のアーキテクチャや損失関数を設計することに焦点を当てた以前の研究とは異なり、PASMは人間の学習プロセスをシミュレートすることでネットワーク能力を高める。
具体的には、新たな学習材料を生成するために、PASMは、目標タスクに関連する最も情報性の高い位置を見つけるために、ポイント敵攻撃法と訓練された教師ネットワークを利用する。
探索位置は,各サンプルの統計情報と教師ネットワーク能力の両方を考慮するため,高い適応性を有する。
生徒ネットワークは、新たな学習教材を提供する以外に、教師ネットワークからの指導も受けている。
学生ネットワークがトレーニングを終えると、学生ネットワークはその役割を変更し、教師として行動し、新しい学習教材を生成し、より良い学生ネットワークを訓練するためのより強力なガイダンスを提供する。
適応学習教材の生成と教師/学生の更新を複数回行うことができ、ネットワーク能力が反復的に向上する。
表情認識における既存技術に対する本手法の有効性を広範な実験により検証した。
関連論文リスト
- Learn More for Food Recognition via Progressive Self-Distillation [12.046694471161262]
食品認識のためのプログレッシブ自己蒸留法(PSD)を提案する。
プログレッシブトレーニングを使用することで、教師ネットワークはより漸進的に差別的な地域をマイニングする能力を向上させる。
推論フェーズでは、学生ネットワークの助けなしに教師ネットワークのみが使用される。
論文 参考訳(メタデータ) (2023-03-09T07:11:30Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z) - Distilling Knowledge via Knowledge Review [69.15050871776552]
教師と学生のネットワーク間の接続経路のクロスレベル要因を研究し、その大きな重要性を明らかにします。
知識蒸留において初めて, クロスステージ接続経路が提案されている。
最終的に設計されたネストでコンパクトなフレームワークは、無視できるオーバーヘッドを必要とし、さまざまなタスクで他のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-04-19T04:36:24Z) - Student Network Learning via Evolutionary Knowledge Distillation [22.030934154498205]
教師知識の伝達効率を改善するための進化的知識蒸留手法を提案する。
進化的教師は、固定された予習教師の代わりにオンラインで学習され、学生ネットワーク学習を監督するために、中間的知識を継続的に伝達する。
このようにして、学生は豊富な内部知識を同時に獲得し、その成長過程を捉え、効果的なネットワーク学習につながる。
論文 参考訳(メタデータ) (2021-03-23T02:07:15Z) - Learning Student-Friendly Teacher Networks for Knowledge Distillation [50.11640959363315]
本研究では,教師から学生への暗黒知識の伝達を容易にする新しい知識蒸留手法を提案する。
事前教育を受けた教師に与えた学習モデルの効果的な学習方法のほとんどとは対照的に,学生に親しみやすい教師モデルを学ぶことを目的とする。
論文 参考訳(メタデータ) (2021-02-12T07:00:17Z) - Densely Guided Knowledge Distillation using Multiple Teacher Assistants [5.169724825219126]
モデルサイズを徐々に小さくする複数の教師アシスタントを用いた知識蒸留法を提案する。
また,ミニバッチ毎に,教師や教師のアシスタントがランダムにドロップされるような授業も設計する。
これは、学生ネットワークの教育効率を向上させるために、レギュラーライザとして機能する。
論文 参考訳(メタデータ) (2020-09-18T13:12:52Z) - Interactive Knowledge Distillation [79.12866404907506]
本稿では,効率的な知識蒸留のための対話型指導戦略を活用するために,対話型知識蒸留方式を提案する。
蒸留工程では,教師と学生のネットワーク間の相互作用を交換操作により行う。
教員ネットワークの典型的な設定による実験により,IAKDで訓練された学生ネットワークは,従来の知識蒸留法で訓練された学生ネットワークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-03T03:22:04Z) - Student-Teacher Curriculum Learning via Reinforcement Learning:
Predicting Hospital Inpatient Admission Location [4.359338565775979]
本研究では,この問題に対処するための強化学習を通して,学生と教師のネットワークを提案する。
生徒ネットワークの重みの表現を状態として扱い、教師ネットワークへの入力として供給する。
教師ネットワークの行動は、エントロピーに応じてソートされたトレーニングセットから、生徒ネットワークをトレーニングするための最も適切なデータのバッチを選択することである。
論文 参考訳(メタデータ) (2020-07-01T15:00:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。