論文の概要: MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2205.04442v1
- Date: Mon, 9 May 2022 17:43:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 14:41:37.137831
- Title: MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition
- Title(参考訳): MixAugment & Mixup: 表情認識のための拡張方法
- Authors: Andreas Psaroudakis and Dimitrios Kollias
- Abstract要約: 我々はMixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
本研究は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範囲な実験的研究を行う。
- 参考スコア(独自算出の注目度): 4.273075747204267
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic Facial Expression Recognition (FER) has attracted increasing
attention in the last 20 years since facial expressions play a central role in
human communication. Most FER methodologies utilize Deep Neural Networks (DNNs)
that are powerful tools when it comes to data analysis. However, despite their
power, these networks are prone to overfitting, as they often tend to memorize
the training data. What is more, there are not currently a lot of in-the-wild
(i.e. in unconstrained environment) large databases for FER. To alleviate this
issue, a number of data augmentation techniques have been proposed. Data
augmentation is a way to increase the diversity of available data by applying
constrained transformations on the original data. One such technique, which has
positively contributed to various classification tasks, is Mixup. According to
this, a DNN is trained on convex combinations of pairs of examples and their
corresponding labels. In this paper, we examine the effectiveness of Mixup for
in-the-wild FER in which data have large variations in head poses, illumination
conditions, backgrounds and contexts. We then propose a new data augmentation
strategy which is based on Mixup, called MixAugment. According to this, the
network is trained concurrently on a combination of virtual examples and real
examples; all these examples contribute to the overall loss function. We
conduct an extensive experimental study that proves the effectiveness of
MixAugment over Mixup and various state-of-the-art methods. We further
investigate the combination of dropout with Mixup and MixAugment, as well as
the combination of other data augmentation techniques with MixAugment.
- Abstract(参考訳): 表情認識(FER)は,人間のコミュニケーションにおいて表情が中心的な役割を担っているため,近年注目されている。
ほとんどのFER方法論では、データ分析において強力なツールであるDeep Neural Networks(DNN)を使用している。
しかし、これらのネットワークはパワーにもかかわらず、トレーニングデータを記憶する傾向があるため、過度に適合する傾向にある。
さらに、現在FER用の非制約環境(すなわち、非制約環境)の大規模なデータベースは多くありません。
この問題を緩和するために、多くのデータ拡張技術が提案されている。
データ拡張は、元のデータに制約付き変換を適用することで、利用可能なデータの多様性を高める方法である。
このような手法の1つは、様々な分類タスクに肯定的な貢献をしたMixupである。
これによると、DNNはサンプルのペアとそのラベルの凸組み合わせに基づいて訓練される。
そこで本研究では,頭部ポーズ,照明条件,背景,背景,状況など,データに大きな変化が生じる領域内FERに対するMixupの有効性について検討する。
次に、MixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
これによると、ネットワークは仮想例と実例の組み合わせで同時にトレーニングされる。
我々は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範な実験研究を行っている。
さらに,dropout と mixup と mixaugment の組み合わせや,他のデータ拡張技術と mixaugment の組み合わせについても検討した。
関連論文リスト
- A Survey on Mixup Augmentations and Beyond [59.578288906956736]
選択したサンプルと対応するラベルを凸的に組み合わせた混合および関連データ混合手法が広く採用されている。
本調査では, 基礎混合法とその応用について概観する。
論文 参考訳(メタデータ) (2024-09-08T19:32:22Z) - TransformMix: Learning Transformation and Mixing Strategies from Data [20.79680733590554]
我々は、データからより良い変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T04:36:41Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Contrastive-mixup learning for improved speaker verification [17.93491404662201]
本稿では,話者検証のためのミックスアップによるプロトタイプ損失の新しい定式化を提案する。
Mixupは、ランダムなデータポイントとラベルペアの重み付けを組み合わせた、シンプルだが効率的なデータ拡張技術である。
論文 参考訳(メタデータ) (2022-02-22T05:09:22Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - Puzzle Mix: Exploiting Saliency and Local Statistics for Optimal Mixup [19.680580983094323]
Puzzle Mixは、サリエンシ情報と自然事例の基盤となる統計を明示的に活用するための混合手法である。
実験の結果,Puzzle Mixはアートの一般化と対向ロバスト性を実現していることがわかった。
論文 参考訳(メタデータ) (2020-09-15T10:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。