論文の概要: Multi-Agent Semi-Siamese Training for Long-tail and Shallow Face
Learning
- arxiv url: http://arxiv.org/abs/2105.04113v1
- Date: Mon, 10 May 2021 04:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:54:10.512528
- Title: Multi-Agent Semi-Siamese Training for Long-tail and Shallow Face
Learning
- Title(参考訳): ロングテールと浅面学習のためのマルチエージェントセミシャムトレーニング
- Authors: Hailin Shi, Dan Zeng, Yichun Tai, Hang Du, Yibo Hu, Tao Mei
- Abstract要約: 多くの現実世界の顔認識シナリオでは、トレーニングデータセットの深さは浅いため、IDごとに2つの顔画像しか利用できません。
非均一なサンプルの増加により、このような問題はより一般的なケース、すなわち長い尾の顔学習に変換される。
これらの問題に対処するために,マルチエージェントセミシアントレーニング(masst)という高度なソリューションを導入する。
広範な実験と比較は、長い尾と浅い顔学習のためのMASSTの利点を示しています。
- 参考スコア(独自算出の注目度): 54.13876727413492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent development of deep convolutional neural networks and
large-scale datasets, deep face recognition has made remarkable progress and
been widely used in various applications. However, unlike the existing public
face datasets, in many real-world scenarios of face recognition, the depth of
training dataset is shallow, which means only two face images are available for
each ID. With the non-uniform increase of samples, such issue is converted to a
more general case, a.k.a long-tail face learning, which suffers from data
imbalance and intra-class diversity dearth simultaneously. These adverse
conditions damage the training and result in the decline of model performance.
Based on the Semi-Siamese Training (SST), we introduce an advanced solution,
named Multi-Agent Semi-Siamese Training (MASST), to address these problems.
MASST includes a probe network and multiple gallery agents, the former aims to
encode the probe features, and the latter constitutes a stack of networks that
encode the prototypes (gallery features). For each training iteration, the
gallery network, which is sequentially rotated from the stack, and the probe
network form a pair of semi-siamese networks. We give theoretical and empirical
analysis that, given the long-tail (or shallow) data and training loss, MASST
smooths the loss landscape and satisfies the Lipschitz continuity with the help
of multiple agents and the updating gallery queue. The proposed method is out
of extra-dependency, thus can be easily integrated with the existing loss
functions and network architectures. It is worth noting that, although multiple
gallery agents are employed for training, only the probe network is needed for
inference, without increasing the inference cost. Extensive experiments and
comparisons demonstrate the advantages of MASST for long-tail and shallow face
learning.
- Abstract(参考訳): 近年の深層畳み込みニューラルネットワークや大規模データセットの開発により、深層顔認識は著しく進歩し、様々な用途で広く用いられている。
しかし、既存の公開顔データセットとは異なり、顔認識の現実的なシナリオでは、トレーニングデータセットの深さは浅いため、ID毎に2つの顔イメージしか利用できない。
不均一なサンプルの増加により、このような問題はより一般的なケース、すなわちデータの不均衡とクラス内多様性を同時に抱えるロングテールフェイスラーニングに変換される。
これらの悪条件がトレーニングを損傷し、モデルの性能が低下する。
sst(semi-siamese training)に基づいて,これらの問題に対処するために,マルチエージェントセミシャムトレーニング(masst)という高度なソリューションを導入する。
MASSTはプローブネットワークと複数のギャラリーエージェントを含み、前者はプローブ機能をエンコードすることを目的としており、後者はプロトタイプ(ギャラリー機能)をエンコードするネットワークのスタックを構成する。
各トレーニングイテレーションでは、スタックから順次回転するギャラリーネットワークと、プローブネットワークが1対のセミシャムネットワークを形成する。
我々は、長尾(または浅尾)のデータとトレーニング損失を考慮に入れ、MASSTはロスランドスケープを滑らかにし、複数のエージェントと更新ギャラリーキューの助けを借りてリプシッツ連続性を満足する、理論的および実証的な分析を行う。
提案手法は外部依存性を欠いているため,既存の損失関数やネットワークアーキテクチャと容易に統合できる。
トレーニングには複数のギャラリーエージェントが使用されているが、推論コストを増加させることなく、推論にはプローブネットワークのみが必要である点に注意が必要だ。
広範囲な実験と比較により,MASSTの長身・浅身学習の利点が示された。
関連論文リスト
- Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - On the Soft-Subnetwork for Few-shot Class Incremental Learning [67.0373924836107]
本稿では,emphSoft-SubNetworks (SoftNet) と呼ばれる数発のクラスインクリメンタルラーニング(FSCIL)手法を提案する。
私たちの目的はセッションの連続を漸進的に学習することであり、各セッションは、以前に学習したセッションの知識を保持しながら、クラス毎にいくつかのトレーニングインスタンスのみを含む。
我々は、ベンチマークデータセットよりも最先端のベースラインのパフォーマンスを超越して、SoftNetが数発のインクリメンタル学習問題に効果的に取り組むことを示す、総合的な実証検証を提供する。
論文 参考訳(メタデータ) (2022-09-15T04:54:02Z) - Stochastic Primal-Dual Deep Unrolling Networks for Imaging Inverse
Problems [3.7819322027528113]
本稿では,画像逆問題に対する高効率ディープアンローリングネットワークを提案する。
アンローリングネットワークでは、フォワード演算子とアジョイント演算子のサブセットのみを使用します。
以上の結果から,X線CTにおけるアプローチの有効性が示唆された。
論文 参考訳(メタデータ) (2021-10-19T16:46:03Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z) - HALO: Learning to Prune Neural Networks with Shrinkage [5.283963846188862]
ディープニューラルネットワークは、構造化されていないデータから豊富な特徴セットを抽出することにより、さまざまなタスクで最先端のパフォーマンスを実現する。
提案手法は,(1)ネットワークプルーニング,(2)スパシティ誘導ペナルティによるトレーニング,(3)ネットワークの重みと連動してバイナリマスクをトレーニングすることである。
トレーニング可能なパラメータを用いて、与えられたネットワークの重みを適応的に分散化することを学ぶ階層適応ラッソ(Hierarchical Adaptive Lasso)という新しいペナルティを提案する。
論文 参考訳(メタデータ) (2020-08-24T04:08:48Z) - Semi-Siamese Training for Shallow Face Learning [78.7386209619276]
セミ・シームズ・トレーニング(SST)という新しいトレーニング手法を導入する。
一対のセミ・シームズネットワークが前方伝播構造を構成し、トレーニング損失を更新ギャラリーキューで計算する。
提案手法は外部依存を伴わずに開発されており,既存の損失関数やネットワークアーキテクチャと柔軟に統合することができる。
論文 参考訳(メタデータ) (2020-07-16T15:20:04Z) - Deep Multi-Facial Patches Aggregation Network For Facial Expression
Recognition [5.735035463793008]
深層多面的パッチアグリゲーションネットワークに基づく顔表情認識(FER)のアプローチを提案する。
ディープ機能は、ディープサブネットワークを使用して顔のパッチから学習され、表現分類のために1つのディープアーキテクチャに集約される。
論文 参考訳(メタデータ) (2020-02-20T17:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。