論文の概要: Efficient Lightweight 3D-CNN using Frame Skipping and Contrast
Enhancement for Facial Macro- and Micro-expression Spotting
- arxiv url: http://arxiv.org/abs/2105.06340v1
- Date: Thu, 13 May 2021 14:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:57:01.442502
- Title: Efficient Lightweight 3D-CNN using Frame Skipping and Contrast
Enhancement for Facial Macro- and Micro-expression Spotting
- Title(参考訳): フレームスキッピングとコントラスト強化による顔面マクロ・マイクロ圧縮スポッティングの高効率軽量3D-CNN
- Authors: Chuin Hong Yap, Moi Hoon Yap, Adrian K. Davison, Ryan Cunningham
- Abstract要約: フレームスキップとコントラストエンハンスメント(EL-FACE)をマイクロ表現スポッティングタスクに用いて,効率的な軽量な3次元畳み込みネットワークを構築した。
我々のモデルはSAMM Long Videosの最先端性能を達成し,CAS(ME)2データセットの競争力を維持した。
- 参考スコア(独自算出の注目度): 8.249165772349127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expression spotting is the preliminary step for any micro-expression
related analysis to avoid excessive false positives. We propose an efficient
lightweight macro- and micro-expression spotting method which takes advantage
of the duration differences of macro- and micro-expressions. Using effective
frame skips, local contrast normalisation, depthwise separable convolutions and
residual connections, we construct Efficient Lightweight 3D-Convolutional
Network using Frame Skipping and Contrast Enhancement (EL-FACE) for the
micro-expression spotting task. Our model achieves state-of-the-art performance
in SAMM Long Videos and remained competitive in the CAS(ME)2 dataset.
- Abstract(参考訳): マイクロ表現スポッティング(micro-expression spotting)は、過剰な偽陽性を避けるため、任意のマイクロ表現関連分析の予備段階である。
マクロ表現とマイクロ表現の時間差を生かした,効率的な軽量なマクロ表現とマイクロ表現のスポッティング手法を提案する。
フレームスキップ, 局所コントラスト正規化, 奥行き分離可能な畳み込み, 残差接続を用いて, フレームスキッピングとコントラストエンハンスメント(EL-FACE)を用いた高効率軽量3次元畳み込みネットワークを構築した。
我々のモデルはSAMM Long Videosの最先端性能を実現し,CAS(ME)2データセットの競争力を維持した。
関連論文リスト
- Correspondence-Guided SfM-Free 3D Gaussian Splatting for NVS [52.3215552448623]
SfM(Structure-from-Motion)事前処理カメラのポーズのない新しいビュー合成(NVS)は、迅速な応答能力の向上と、可変動作条件に対する堅牢性の向上に不可欠である。
最近のSfMフリー手法は、ポーズ最適化を統合し、共同カメラのポーズ推定とNVSのためのエンドツーエンドフレームワークを設計している。
既存の作業の多くは、L2損失のようなピクセル単位の画像損失関数に依存している。
本研究では,NVSのためのSfMフリー3次元ガウススプラッティングを提案する。
論文 参考訳(メタデータ) (2024-08-16T13:11:22Z) - SpotFormer: Multi-Scale Spatio-Temporal Transformer for Facial Expression Spotting [11.978551396144532]
本稿では,表情スポッティングのための効率的なフレームワークを提案する。
まず,スライディングウィンドウを用いたマルチリゾリューション・オプティカルフロー(SW-MRO)機能を提案する。
第2に,SW-MRO特徴の顔時間関係を同時に符号化し,フレームレベルの精度推定を行うマルチスケール時間変換器であるSpotFormerを提案する。
第3に,異なる種類の表現の識別性を高めるために,教師付きコントラスト学習をSpotFormerに導入する。
論文 参考訳(メタデータ) (2024-07-30T13:02:08Z) - Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - From Macro to Micro: Boosting micro-expression recognition via pre-training on macro-expression videos [9.472210792839023]
マイクロ圧縮認識(MER)は、インテリジェント医療や嘘検出に応用される可能性があるため、近年注目を集めている。
我々は、textbfMAcro-expression textbfTO textbfMIcro-expression (MA2MI) と呼ばれる一般化トランスファー学習パラダイムを提案する。
我々のパラダイムでは、ネットワークは将来のフレームを再構築することで、微妙な顔の動きを表現する能力を学ぶことができる。
論文 参考訳(メタデータ) (2024-05-26T06:42:06Z) - DualFocus: Integrating Macro and Micro Perspectives in Multi-modal Large
Language Models [85.4852517178828]
マルチモーダル大言語モデル(MLLM)におけるマクロ・マイクロ視点の統合フレームワークであるDualFocusについて述べる。
本研究は,DualFocusが総合的な洞察と詳細な検査のバランスをとる上で優れていることを示し,MLLMの幻覚例を著しく減らした。
論文 参考訳(メタデータ) (2024-02-22T18:26:02Z) - Learning to Rank Onset-Occurring-Offset Representations for
Micro-Expression Recognition [24.75382410411772]
本稿では,マイクロ圧縮認識(MER)の研究に焦点をあてる。
オンセットオフセット表現(LTR3O)をランク付けする学習法という,柔軟で信頼性の高い深層学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-07T03:09:53Z) - Fearless Luminance Adaptation: A Macro-Micro-Hierarchical Transformer
for Exposure Correction [65.5397271106534]
単一のニューラルネットワークは、すべての露光問題に対処することが難しい。
特に、コンボリューションは、極端に過度に露出した領域における忠実な色や詳細を復元する能力を妨げる。
本稿では,マクロマイクロ階層変換器を提案する。マクロマイクロ階層変換器は,長距離依存を捉えるマクロアテンション,局所特徴を抽出するマイクロアテンション,粗大な修正のための階層構造を提案する。
論文 参考訳(メタデータ) (2023-09-02T09:07:36Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z) - Shallow Optical Flow Three-Stream CNN for Macro- and Micro-Expression
Spotting from Long Videos [15.322908569777551]
本稿では,表現区間にあるフレームの確率を推定するモデルを提案する。
本稿では,最新のMEGC 2020ベンチマークにおいて提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-06-11T16:19:48Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。