論文の概要: Behaviour4All: in-the-wild Facial Behaviour Analysis Toolkit
- arxiv url: http://arxiv.org/abs/2409.17717v1
- Date: Thu, 26 Sep 2024 10:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 20:20:41.309056
- Title: Behaviour4All: in-the-wild Facial Behaviour Analysis Toolkit
- Title(参考訳): Behaviour4All: In-the-Wild Facial Behaviour Analysis Toolkit
- Authors: Dimitrios Kollias, Chunchang Shao, Odysseus Kaloidas, Ioannis Patras,
- Abstract要約: In-the-wild顔行動分析のための包括的オープンソースツールキットであるBehavior4Allを紹介する。
CPU専用バージョンとGPUアクセラレーションバージョンの両方で利用できる。
Behavior4Allは、すべてのデータベースやタスクの公平性だけでなく、全体的なパフォーマンスにおいて、最先端とツールキットの両方を上回ります。
- 参考スコア(独自算出の注目度): 20.858810893684566
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we introduce Behavior4All, a comprehensive, open-source toolkit for in-the-wild facial behavior analysis, integrating Face Localization, Valence-Arousal Estimation, Basic Expression Recognition and Action Unit Detection, all within a single framework. Available in both CPU-only and GPU-accelerated versions, Behavior4All leverages 12 large-scale, in-the-wild datasets consisting of over 5 million images from diverse demographic groups. It introduces a novel framework that leverages distribution matching and label co-annotation to address tasks with non-overlapping annotations, encoding prior knowledge of their relatedness. In the largest study of its kind, Behavior4All outperforms both state-of-the-art and toolkits in overall performance as well as fairness across all databases and tasks. It also demonstrates superior generalizability on unseen databases and on compound expression recognition. Finally, Behavior4All is way times faster than other toolkits.
- Abstract(参考訳): 本稿では,顔の局所化,Valence-Arousal Estimation,Basic Expression Recognition,Action Unit Detectionを1つのフレームワークに統合し,顔の動作分析のための包括的オープンソースツールキットであるBehaviment4Allを紹介する。
CPU専用バージョンとGPUアクセラレーションバージョンの両方で利用可能であるBehavior4Allは、さまざまな人口グループから500万以上の画像で構成された、12の大規模、アプリ内データセットを活用している。
分散マッチングとラベルのコアノテーションを利用して、重複しないアノテーションでタスクに対処する新しいフレームワークを導入し、それらの関連性に関する事前の知識を符号化する。
この種の最大の研究で、Behavior4Allは、すべてのデータベースやタスクの公平性だけでなく、全体的なパフォーマンスにおいて最先端とツールキットの両方を上回ります。
また、目に見えないデータベースや複合表現認識に優れた一般化性を示す。
最後に、Behavior4Allは他のツールキットよりもはるかに高速です。
関連論文リスト
- SwinFace: A Multi-task Transformer for Face Recognition, Expression
Recognition, Age Estimation and Attribute Estimation [60.94239810407917]
本論文では,単一スウィントランスを用いた顔認識,表情認識,年齢推定,顔属性推定のための多目的アルゴリズムを提案する。
複数のタスク間の競合に対処するため、マルチレベルチャネル注意(MLCA)モジュールをタスク固有の分析に統合する。
実験の結果,提案したモデルでは顔の理解が良く,全てのタスクにおいて優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-22T15:38:39Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - Multi-modal Affect Analysis using standardized data within subjects in
the Wild [8.05417723395965]
本稿では,表情(EXP)に着目した感情認識手法を提案する。
提案手法は,評価精度とロバスト性を効果的に向上する。
論文 参考訳(メタデータ) (2021-07-07T04:18:28Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Cross-Task Instance Representation Interactions and Label Dependencies
for Joint Information Extraction with Graph Convolutional Networks [21.267427578268958]
本稿では,1つのモデル(FourIE)でIEの4つのタスクを同時に解くための新しいディープラーニングモデルを提案する。
4つのIEタスクを共同実行する以前の作業と比べて、FourIEはタスク間の依存関係をキャプチャする2つの新しいコントリビューションを特徴としている。
提案モデルは,3つの異なる言語を用いた単言語学習と多言語学習の両方において,ieの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-16T21:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。