論文の概要: EventFormer: AU Event Transformer for Facial Action Unit Event Detection
- arxiv url: http://arxiv.org/abs/2203.06355v2
- Date: Thu, 11 May 2023 04:19:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 19:18:38.151326
- Title: EventFormer: AU Event Transformer for Facial Action Unit Event Detection
- Title(参考訳): EventFormer: 顔アクションユニットイベント検出のためのAU Event Transformer
- Authors: Yingjie Chen, Jiarui Zhang, Tao Wang, and Yun Liang
- Abstract要約: EventFormerは、AUイベントを複数のクラス固有のセット予測問題として見ることにより、ビデオシーケンスからAUイベントを直接検出する。
一般的に使用されるAUベンチマークデータセットであるBP4Dで実施された実験は、適切なメトリクス下でのEventFormerの優位性を示している。
- 参考スコア(独自算出の注目度): 7.1349402699545905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial action units (AUs) play an indispensable role in human emotion
analysis. We observe that although AU-based high-level emotion analysis is
urgently needed by real-world applications, frame-level AU results provided by
previous works cannot be directly used for such analysis. Moreover, as AUs are
dynamic processes, the utilization of global temporal information is important
but has been gravely ignored in the literature. To this end, we propose
EventFormer for AU event detection, which is the first work directly detecting
AU events from a video sequence by viewing AU event detection as a multiple
class-specific sets prediction problem. Extensive experiments conducted on a
commonly used AU benchmark dataset, BP4D, show the superiority of EventFormer
under suitable metrics.
- Abstract(参考訳): 顔行動単位(AU)は人間の感情分析において不可欠である。
実世界のアプリケーションでは,AUに基づく高レベル感情分析が緊急に必要とされているが,過去の研究で得られたフレームレベル感情分析はそのような分析には直接利用できない。
さらに, ausは動的プロセスであるため, 地球規模の時間情報の利用は重要であるが, 文献では無視されている。
そこで本研究では、AUイベント検出を複数のクラス固有のセット予測問題として見ることにより、ビデオシーケンスからAUイベントを直接検出する、AUイベント検出のためのEventFormerを提案する。
一般的に使用されるAUベンチマークデータセットBP4Dで実施された大規模な実験は、適切なメトリクス下でのEventFormerの優位性を示している。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - DEGAP: Dual Event-Guided Adaptive Prefixes for Templated-Based Event Argument Extraction with Slot Querying [32.115904077731386]
イベント引数抽出(EAE)の最近の進歩は、トレーニングや推論中に有用な補助情報をモデルに組み込むことである。
これらの手法は,(1)検索結果が無関係である場合があり,(2)テンプレートは関連性を考慮せずに,各イベントごとに独立して開発される場合の2つの課題に直面する。
本稿では,2つのプレフィックス,すなわち学習可能なプロンプトベクトル,イベント誘導型適応ゲーティング機構を用いて,これらの課題に対処するDEGAPを提案する。
論文 参考訳(メタデータ) (2024-05-22T03:56:55Z) - Improving Event Definition Following For Zero-Shot Event Detection [66.27883872707523]
ゼロショットイベント検出に対する既存のアプローチは通常、既知のイベントタイプをアノテートしたデータセット上でモデルをトレーニングする。
イベント定義に従うためのトレーニングモデルによるゼロショットイベント検出の改善を目指しています。
論文 参考訳(メタデータ) (2024-03-05T01:46:50Z) - FG-Net: Facial Action Unit Detection with Generalizable Pyramidal
Features [13.176011491885664]
以前のAU検出方法はデータセットにオーバーフィットする傾向があり、コーパス間で評価された場合、大きなパフォーマンス損失が発生する。
一般化可能な顔行動単位検出のためのFG-Netを提案する。
具体的には、FG-Netは、大規模で多様な顔画像データセットで事前訓練されたStyleGAN2モデルから特徴マップを抽出する。
論文 参考訳(メタデータ) (2023-08-23T18:51:11Z) - Abnormal Event Detection via Hypergraph Contrastive Learning [54.80429341415227]
異常事象検出は多くの実アプリケーションにおいて重要な役割を果たす。
本稿では,分散異種情報ネットワークにおける異常事象検出問題について検討する。
AEHCLと呼ばれる新しいハイパーグラフコントラスト学習法が,異常事象のパターンをフルに捉えるために提案されている。
論文 参考訳(メタデータ) (2023-04-02T08:23:20Z) - Semantic Pivoting Model for Effective Event Detection [19.205550116466604]
Event Detectionは、構造化されていない記事からイベントインスタンスの参照を識別し、分類することを目的としている。
イベント検出の既存のテクニックは、イベントタイプクラスを表現するために、均質な1ホットベクトルのみを使用しており、型の意味がタスクにとって重要であるという事実を無視している。
本稿では,学習中の事前情報を明示的に組み込んで,入力とイベント間の意味的に意味のある相関関係を捉えるセマンティック・ピロリング・モデル(SPEED)を提案する。
論文 参考訳(メタデータ) (2022-11-01T19:20:34Z) - Avoiding Post-Processing with Event-Based Detection in Biomedical
Signals [69.34035527763916]
学習対象としてイベントを直接扱うイベントベースのモデリングフレームワークを提案する。
イベントベースのモデリング(後処理なし)は、広範囲な後処理を伴うエポックベースのモデリングと同等以上のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-09-22T13:44:13Z) - Robust Event Classification Using Imperfect Real-world PMU Data [58.26737360525643]
本研究では,不完全な実世界のファサー計測単位(PMU)データを用いて,ロバストな事象分類について検討する。
我々は、堅牢なイベント分類器を訓練するための新しい機械学習フレームワークを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:41:43Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。