論文の概要: Separable Batch Normalization for Robust Facial Landmark Localization
with Cross-protocol Network Training
- arxiv url: http://arxiv.org/abs/2101.06663v1
- Date: Sun, 17 Jan 2021 13:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:17:03.735738
- Title: Separable Batch Normalization for Robust Facial Landmark Localization
with Cross-protocol Network Training
- Title(参考訳): クロスプロトコールネットワークトレーニングによるロバスト顔ランドマーク位置推定のための分離バッチ正規化
- Authors: Shuangping Jin, Zhenhua Feng, Wankou Yang, Josef Kittler
- Abstract要約: 大規模で多様でバランスの取れたトレーニングデータは、ディープニューラルネットワークトレーニングの成功の鍵です。
多様性とバランスの取れたトレーニングサンプルを持たない小さなデータセットは、ディープネットワークのトレーニングを効果的にサポートできない。
本稿では, 顔のランドマークのロバスト化のためのクロスプロトコールネットワークトレーニング(CNT)戦略を用いた, 分離型バッチ正規化(SepBN)モジュールを提案する。
- 参考スコア(独自算出の注目度): 41.82379935715916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A big, diverse and balanced training data is the key to the success of deep
neural network training. However, existing publicly available datasets used in
facial landmark localization are usually much smaller than those for other
computer vision tasks. A small dataset without diverse and balanced training
samples cannot support the training of a deep network effectively. To address
the above issues, this paper presents a novel Separable Batch Normalization
(SepBN) module with a Cross-protocol Network Training (CNT) strategy for robust
facial landmark localization. Different from the standard BN layer that uses
all the training data to calculate a single set of parameters, SepBN considers
that the samples of a training dataset may belong to different sub-domains.
Accordingly, the proposed SepBN module uses multiple sets of parameters, each
corresponding to a specific sub-domain. However, the selection of an
appropriate branch in the inference stage remains a challenging task because
the sub-domain of a test sample is unknown. To mitigate this difficulty, we
propose a novel attention mechanism that assigns different weights to each
branch for automatic selection in an effective style. As a further innovation,
the proposed CNT strategy trains a network using multiple datasets having
different facial landmark annotation systems, boosting the performance and
enhancing the generalization capacity of the trained network. The experimental
results obtained on several well-known datasets demonstrate the effectiveness
of the proposed method.
- Abstract(参考訳): 大規模で多様でバランスの取れたトレーニングデータが、ディープニューラルネットワークトレーニングの成功の鍵である。
しかしながら、顔のランドマークのローカライゼーションで使用される既存の公開データセットは通常、他のコンピュータビジョンタスクよりもはるかに小さい。
多様性とバランスの取れたトレーニングサンプルを持たない小さなデータセットは、ディープネットワークのトレーニングを効果的にサポートできない。
以上の課題に対処するため, 顔ランドマークのロバスト化のためのクロスプロトコールネットワークトレーニング(CNT)戦略を用いた, セパブルバッチ正規化(SepBN)モジュールを提案する。
すべてのトレーニングデータを使用して単一のパラメータのセットを計算する標準BNレイヤとは異なり、SepBNはトレーニングデータセットのサンプルは異なるサブドメインに属する可能性があると考えている。
そのため、提案したSepBNモジュールは複数のパラメータセットを使用し、それぞれが特定のサブドメインに対応する。
しかしながら、テストサンプルのサブドメインが不明であるため、推論段階における適切なブランチの選択は難しい課題である。
この難易度を緩和するために,各枝に異なる重みを割り当て,自動選択を効果的に行う新しい注意機構を提案する。
さらに,提案するcnt戦略は,異なる顔ランドマークアノテーションシステムを持つ複数のデータセットを用いてネットワークを訓練し,その性能を高め,ネットワークの一般化能力を高める。
いくつかのよく知られたデータセットで得られた実験結果は,提案手法の有効性を示している。
関連論文リスト
- Patch-aware Batch Normalization for Improving Cross-domain Robustness [55.06956781674986]
クロスドメインタスクは、トレーニングセットとテストセットが異なるディストリビューションに従うと、モデルのパフォーマンスが低下する課題を示す。
パッチ対応バッチ正規化(PBN)と呼ばれる新しい手法を提案する。
画像の局所的なパッチの違いを利用して、提案したPBNはモデルパラメータの堅牢性を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-04-06T03:25:42Z) - Dynamic Neural Network for Multi-Task Learning Searching across Diverse
Network Topologies [14.574399133024594]
多様なグラフトポロジを持つ複数のタスクに対して最適化された構造を探索する新しいMTLフレームワークを提案する。
我々は、トポロジ的に多様なタスク適応構造を構築するために、読み出し/読み出し層を備えたDAGベースの制限付き中央ネットワークを設計する。
論文 参考訳(メタデータ) (2023-03-13T05:01:50Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Exploiting Invariance in Training Deep Neural Networks [4.169130102668252]
動物視覚システムの2つの基本的なメカニズムに触発され、ディープニューラルネットワークのトレーニングに不変性を与える特徴変換技術を紹介します。
結果として得られるアルゴリズムはパラメータチューニングを少なくし、初期学習率1.0でうまくトレーニングし、異なるタスクに簡単に一般化する。
ImageNet、MS COCO、Cityscapesデータセットでテストされた当社の提案手法は、トレーニングにより少ないイテレーションを必要とし、すべてのベースラインを大きなマージンで上回り、小規模および大規模のバッチサイズのトレーニングをシームレスに行い、画像分類、オブジェクト検出、セマンティックセグメンテーションの異なるコンピュータビジョンタスクに適用します。
論文 参考訳(メタデータ) (2021-03-30T19:18:31Z) - All at Once Network Quantization via Collaborative Knowledge Transfer [56.95849086170461]
オールオンス量子化ネットワークを効率的にトレーニングするための新しい共同知識伝達アプローチを開発しています。
具体的には、低精度の学生に知識を伝達するための高精度のエンクォータを選択するための適応的選択戦略を提案する。
知識を効果的に伝達するために,低精度の学生ネットワークのブロックを高精度の教師ネットワークのブロックにランダムに置き換える動的ブロックスワッピング法を開発した。
論文 参考訳(メタデータ) (2021-03-02T03:09:03Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Multi-Subspace Neural Network for Image Recognition [33.61205842747625]
画像分類タスクでは, 特徴抽出は常に大きな問題であり, クラス内変動により抽出器の設計が困難になる。
近年、ディープラーニングはデータから機能を自動的に学習することに多くの注意を払っている。
本研究では,畳み込みニューラルネットワーク(CNN)のキーコンポーネントをサブスペースの概念と組み合わせたマルチサブスペースニューラルネットワーク(MSNN)を提案する。
論文 参考訳(メタデータ) (2020-06-17T02:55:34Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - Diversity Transfer Network for Few-Shot Learning [34.36438817417749]
本稿では,潜在多様性を既知のカテゴリから伝達する新たな生成フレームワークであるダイバーシティ・トランスファー・ネットワーク(DTN)を提案する。
DTNのメタトレーニングプロセスの安定化を図るために,既知のカテゴリに対して協調訓練を行う組織的な補助的タスクを提案する。
その結果,DTNは単段階学習とより高速な収束速度を持ち,特徴生成に基づく数ショット学習手法の最先端結果が得られることがわかった。
論文 参考訳(メタデータ) (2019-12-31T05:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。