論文の概要: An Attention-based Method for Action Unit Detection at the 3rd ABAW
Competition
- arxiv url: http://arxiv.org/abs/2203.12428v1
- Date: Wed, 23 Mar 2022 14:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 21:49:00.066945
- Title: An Attention-based Method for Action Unit Detection at the 3rd ABAW
Competition
- Title(参考訳): 第3回ABAWコンペティションにおける注意に基づく行動単位検出手法
- Authors: Duy Le Hoai, Eunchae Lim, Eunbin Choi, Sieun Kim, Sudarshan Pant,
Guee-Sang Lee, Soo-Huyng Kim, Hyung-Jeong Yang
- Abstract要約: 本稿では,2022年の第3回ABAW(Affective Behavior Analysis in-the-Wild)コンテストへの参加について述べる。
映像中の顔の動きを検知する手法を提案する。
ABAWチャレンジ検証セットのマクロF1スコアは0.48であり,ベースラインモデルでは0.39であった。
- 参考スコア(独自算出の注目度): 6.229820412732652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial Action Coding System is an approach for modeling the complexity of
human emotional expression. Automatic action unit (AU) detection is a crucial
research area in human-computer interaction. This paper describes our
submission to the third Affective Behavior Analysis in-the-wild (ABAW)
competition 2022. We proposed a method for detecting facial action units in the
video. At the first stage, a lightweight CNN-based feature extractor is
employed to extract the feature map from each video frame. Then, an attention
module is applied to refine the attention map. The attention encoded vector is
derived using a weighted sum of the feature map and the attention scores later.
Finally, the sigmoid function is used at the output layer to make the
prediction suitable for multi-label AUs detection. We achieved a macro F1 score
of 0.48 on the ABAW challenge validation set compared to 0.39 from the baseline
model.
- Abstract(参考訳): 顔行動符号化システムは、人間の感情表現の複雑さをモデル化するためのアプローチである。
自動アクションユニット(AU)検出は、人間とコンピュータの相互作用において重要な研究領域である。
本稿では,第3回行動分析コンペティション(abaw)コンペティション2022への提案について述べる。
ビデオ中の顔動作単位を検出する手法を提案する。
第一段階では、軽量CNNベースの特徴抽出器を用いて、各映像フレームから特徴マップを抽出する。
そして、アテンションマップを洗練させるためにアテンションモジュールを適用する。
注意符号化ベクトルは、特徴マップと注意スコアの重み付き和を用いて導出される。
最後に、Sigmoid関数を出力層で使用して、マルチラベルAUs検出に適した予測を行う。
ABAWチャレンジ検証セットのマクロF1スコアは0.48であり,ベースラインモデルでは0.39であった。
関連論文リスト
- SimulFlow: Simultaneously Extracting Feature and Identifying Target for
Unsupervised Video Object Segmentation [28.19471998380114]
教師なしビデオオブジェクトセグメンテーション(UVOS)は、人間が介在することなく、所定のビデオシーケンス内の一次オブジェクトを検出することを目的としている。
既存のほとんどの手法は、ターゲットを識別してオブジェクトマスクを生成する前に、外観と動き情報を別々に符号化する2ストリームアーキテクチャに依存している。
特徴抽出とターゲット識別を同時に行うSimulFlowと呼ばれる新しいUVOSモデルを提案する。
論文 参考訳(メタデータ) (2023-11-30T06:44:44Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - KECOR: Kernel Coding Rate Maximization for Active 3D Object Detection [48.66703222700795]
我々は、ラベルの取得に最も有用なポイントクラウドを特定するために、新しいカーネル戦略を利用する。
1段目(SECOND)と2段目(SECOND)の両方に対応するため、アノテーションに選択した境界ボックスの総数と検出性能のトレードオフをよく組み込んだ分類エントロピー接点を組み込んだ。
その結果,ボックスレベルのアノテーションのコストは約44%,計算時間は26%削減された。
論文 参考訳(メタデータ) (2023-07-16T04:27:03Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Multi-modal Multi-label Facial Action Unit Detection with Transformer [7.30287060715476]
本稿では,第3回ABAW(Affective Behavior Analysis)2022コンペティションについて述べる。
映像中の顔行動単位(FAU)を検出するためのトランスフォーマーモデルを提案した。
論文 参考訳(メタデータ) (2022-03-24T18:59:31Z) - Multi-label Transformer for Action Unit Detection [7.09232719022402]
アクション・ユニット(AU)検出(英: Action Unit、AU)は、一意の顔面筋運動を認識することを目的とした感情コンピューティングの分野である。
我々はABAW3チャレンジに応募する。
簡単に言えば、顔画像のどの部分が最も関連があるかを知るために、マルチヘッドアテンションを利用するマルチラベル検出変換器を適用した。
論文 参考訳(メタデータ) (2022-03-23T16:46:09Z) - Action Unit Detection with Joint Adaptive Attention and Graph Relation [3.98807633060402]
本稿では,ABAW(Field Affective Behavior Analysis)2021のコンペティションについて紹介する。
提案手法では,事前学習されたJAAモデルを特徴抽出器として用いる。
我々のモデルは、挑戦的なAff-Wild2データベース上で0.674を達成する。
論文 参考訳(メタデータ) (2021-07-09T12:33:38Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Dense Scene Multiple Object Tracking with Box-Plane Matching [73.54369833671772]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要なタスクである。
密集したシーンにおけるMOT性能を改善するために,Box-Plane Matching (BPM)法を提案する。
3つのモジュールの有効性により、ACM MM Grand Challenge HiEve 2020において、私たちのチームはトラック1のリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2020-07-30T16:39:22Z) - Multi-label Relation Modeling in Facial Action Units Detection [32.27835075990971]
本稿では,顔行動単位検出へのアプローチについて述べる。
AU1 (Inner Brow raiser)、AU2 (Outer Brow raiser)、AU4 (Brow Lowerer)、AU6 (Cheek raise)、AU12 (Lip Corner Puller)、AU15 (Lip Corner Depressor)、AU20 (Lip Stretcher)、AU25 (Lip Part) である。
論文 参考訳(メタデータ) (2020-02-04T03:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。