論文の概要: FaceTopoNet: Facial Expression Recognition using Face Topology Learning
- arxiv url: http://arxiv.org/abs/2209.06322v1
- Date: Tue, 13 Sep 2022 22:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:26:35.267101
- Title: FaceTopoNet: Facial Expression Recognition using Face Topology Learning
- Title(参考訳): FaceTopoNet:顔トポロジー学習を用いた表情認識
- Authors: Mojtaba Kolahdouzi, Alireza Sepas-Moghaddam, Ali Etemad
- Abstract要約: 本稿では,顔の効果的なツリートポロジーを学習可能な,表情認識のためのエンドツーエンドの深層モデルを提案する。
我々のモデルは学習した木をトラバースしてシーケンスを生成し、次に埋め込みを形成してシーケンシャルな学習者に供給する。
提案手法を評価するために,大規模な4つの顔表情データセットについて広範囲に実験を行った。
- 参考スコア(独自算出の注目度): 23.139108533273777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior work has shown that the order in which different components of the face
are learned using a sequential learner can play an important role in the
performance of facial expression recognition systems. We propose FaceTopoNet,
an end-to-end deep model for facial expression recognition, which is capable of
learning an effective tree topology of the face. Our model then traverses the
learned tree to generate a sequence, which is then used to form an embedding to
feed a sequential learner. The devised model adopts one stream for learning
structure and one stream for learning texture. The structure stream focuses on
the positions of the facial landmarks, while the main focus of the texture
stream is on the patches around the landmarks to learn textural information. We
then fuse the outputs of the two streams by utilizing an effective
attention-based fusion strategy. We perform extensive experiments on four
large-scale in-the-wild facial expression datasets - namely AffectNet, FER2013,
ExpW, and RAF-DB - and one lab-controlled dataset (CK+) to evaluate our
approach. FaceTopoNet achieves state-of-the-art performance on three of the
five datasets and obtains competitive results on the other two datasets. We
also perform rigorous ablation and sensitivity experiments to evaluate the
impact of different components and parameters in our model. Lastly, we perform
robustness experiments and demonstrate that FaceTopoNet is more robust against
occlusions in comparison to other leading methods in the area.
- Abstract(参考訳): 先行研究では、逐次学習者を用いて顔の異なる要素を学習する順序が、表情認識システムの性能に重要な役割を果たすことが示されている。
本研究では,顔の効果的なツリートポロジーを学習可能な,表情認識のためのエンドツーエンドの深層モデルであるFaceTopoNetを提案する。
我々のモデルは学習した木をトラバースしてシーケンスを生成し、次に埋め込みを形成してシーケンシャルな学習者に供給する。
考案されたモデルは、学習構造に1つのストリーム、学習テクスチャに1つのストリームを採用する。
構造ストリームは顔のランドマークの位置に焦点を当て、テクスチャストリームの主な焦点はテクスチャ情報を学ぶためにランドマーク周辺のパッチにある。
次に,効果的な注意に基づく融合戦略を用いて2つのストリームの出力を融合する。
AffectNet,FER2013, ExpW, RAF-DBの4つの大規模な顔表情データセットと実験室で制御されたデータセット(CK+)を用いて、我々のアプローチを評価する。
FaceTopoNetは5つのデータセットのうち3つで最先端のパフォーマンスを達成し、他の2つのデータセットで競合結果を得る。
また,モデルにおける各種成分およびパラメータの影響を評価するため,厳密なアブレーションおよび感度実験を行った。
最後に、ロバストネス実験を行い、FaceTopoNetは、この分野の他の主要な手法と比較して、オクルージョンに対してより堅牢であることを示す。
関連論文リスト
- UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Appearance Debiased Gaze Estimation via Stochastic Subject-Wise
Adversarial Learning [33.55397868171977]
外観に基づく視線推定はコンピュータビジョンにおいて注目されており、様々な深層学習技術を用いて顕著な改善が達成されている。
本稿では,被験者の外観を一般化するネットワークを訓練する,SAZE学習という新しい枠組みを提案する。
実験の結果,MPIIGazeデータセットとEyeDiapデータセットの3.89と4.42をそれぞれ達成した。
論文 参考訳(メタデータ) (2024-01-25T00:23:21Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Face Trees for Expression Recognition [13.099925083569333]
表情認識のためのエンドツーエンドアーキテクチャを提案する。
提案アーキテクチャでは,顔の構造を学習するためのランドマーク位置と,テクスチャ情報を学ぶためのランドマーク周辺のパッチに焦点を当てた2つの主要なストリームが組み込まれている。
AffectNet と FER2013 の2つの大規模顔表情データセットについて広範囲に実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-12-05T06:35:12Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Self-supervised Contrastive Learning of Multi-view Facial Expressions [9.949781365631557]
顔表情認識(FER)は,人間とコンピュータのインタラクションシステムにおいて重要な構成要素である。
本稿では,多視点表情のコントラスト学習(CL-MEx)を提案する。
論文 参考訳(メタデータ) (2021-08-15T11:23:34Z) - Progressive Spatio-Temporal Bilinear Network with Monte Carlo Dropout
for Landmark-based Facial Expression Recognition with Uncertainty Estimation [93.73198973454944]
提案手法の性能は, 広く使用されている3つのデータセットで評価される。
ビデオベースの最先端の手法に匹敵するが、複雑さははるかに少ない。
論文 参考訳(メタデータ) (2021-06-08T13:40:30Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。