論文の概要: Boosting Micro-Expression Analysis via Prior-Guided Video-Level Regression
- arxiv url: http://arxiv.org/abs/2508.18834v1
- Date: Tue, 26 Aug 2025 09:13:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.774182
- Title: Boosting Micro-Expression Analysis via Prior-Guided Video-Level Regression
- Title(参考訳): 先行誘導型ビデオレベル回帰によるマイクロ圧縮解析の高速化
- Authors: Zizheng Guo, Bochao Zou, Yinuo Jia, Xiangyu Li, Huimin Ma,
- Abstract要約: マイクロ・エクスプレッション(ME)は、不随意、低強度、短時間の表情である。
既存のME分析手法の多くは、固定されたウィンドウサイズと難しい決定を伴うウィンドウレベルの分類に依存している。
本稿では,ME解析のための事前誘導型ビデオレベル回帰手法を提案する。
- 参考スコア(独自算出の注目度): 15.099304324307434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expressions (MEs) are involuntary, low-intensity, and short-duration facial expressions that often reveal an individual's genuine thoughts and emotions. Most existing ME analysis methods rely on window-level classification with fixed window sizes and hard decisions, which limits their ability to capture the complex temporal dynamics of MEs. Although recent approaches have adopted video-level regression frameworks to address some of these challenges, interval decoding still depends on manually predefined, window-based methods, leaving the issue only partially mitigated. In this paper, we propose a prior-guided video-level regression method for ME analysis. We introduce a scalable interval selection strategy that comprehensively considers the temporal evolution, duration, and class distribution characteristics of MEs, enabling precise spotting of the onset, apex, and offset phases. In addition, we introduce a synergistic optimization framework, in which the spotting and recognition tasks share parameters except for the classification heads. This fully exploits complementary information, makes more efficient use of limited data, and enhances the model's capability. Extensive experiments on multiple benchmark datasets demonstrate the state-of-the-art performance of our method, with an STRS of 0.0562 on CAS(ME)$^3$ and 0.2000 on SAMMLV. The code is available at https://github.com/zizheng-guo/BoostingVRME.
- Abstract(参考訳): マイクロ・エクスプレッション(ME)は不随意、低インテンシティ、短いデュレーションの表情であり、個人の真の思考や感情を明らかにする。
既存のME分析手法の多くは、固定されたウィンドウサイズとハードな決定を伴うウィンドウレベルの分類に依存しており、MEの複雑な時間的ダイナミクスを捉える能力を制限する。
最近のアプローチでは、これらの課題のいくつかに対処するためにビデオレベルの回帰フレームワークが採用されているが、インターバルデコードはまだ手動で事前に定義されたウィンドウベースのメソッドに依存しており、問題は部分的に緩和されている。
本稿では,ME分析のための事前誘導型ビデオレベル回帰手法を提案する。
我々は,MEの時間的進化,時間,およびクラス分布特性を包括的に考慮し,オンセット,頂点,オフセットの正確なスポッティングを可能にする,スケーラブルな間隔選択戦略を導入する。
さらに、スポッティングと認識タスクが、分類ヘッド以外のパラメータを共有できる相乗的最適化フレームワークを導入する。
これは補完的な情報を完全に活用し、限られたデータをより効率的に利用し、モデルの能力を高める。
CAS(ME)$^3$で0.0562、SAMMLV$02000である。
コードはhttps://github.com/zizheng-guo/BoostingVRMEで公開されている。
関連論文リスト
- Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [54.70676039314542]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は、最先端のPTQ手法を実装し、複数のタスクタイプとモデル変種を包括的に評価する。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - ME-TST+: Micro-expression Analysis via Temporal State Transition with ROI Relationship Awareness [12.584801819076425]
マイクロ表現(ME)は、個人固有の感情、嗜好、傾向の重要な指標とみなされる。
従来のディープラーニングアプローチでは、スライディングウインドウ分類ネットワークが一般的であった。
本稿では,ME-TSTとME-TST+という2つの状態空間モデルに基づくアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-08-11T15:28:32Z) - MIBoost: A Gradient Boosting Algorithm for Variable Selection After Multiple Imputation [0.0]
実際には、分析は欠落データによって複雑になることが多い。
提案するMIBoostは,命令付きデータセット間で均一な可変選択機構を持つ新しいアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-29T13:42:38Z) - Synergistic Spotting and Recognition of Micro-Expression via Temporal State Transition [12.087992699513213]
マイクロ表現の分析には、一般的に2つの主要なタスクがある: 長いビデオでマイクロ表現間隔を見つけることと、これらの間隔に関連する感情を認識することである。
従来のディープラーニング手法は主にスライディングウインドウを用いた分類ネットワークに依存していた。
本稿では、従来のウィンドウレベルの分類をビデオレベルの回帰に置き換える、状態空間モデルに基づく新しい時間状態遷移アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-09-15T12:14:19Z) - On the test-time zero-shot generalization of vision-language models: Do we really need prompt learning? [13.803180972839213]
テスト時間拡張(MTA)のための堅牢な平均シフトを導入する。
MTAは、この集中的なトレーニング手順を必要とせずに、プロンプトベースの手法を超える。
提案手法を15のデータセット上で広範囲にベンチマークし,MTAの優位性と計算効率を実証する。
論文 参考訳(メタデータ) (2024-05-03T17:34:02Z) - EMO: Episodic Memory Optimization for Few-Shot Meta-Learning [69.50380510879697]
メタ学習のためのエピソード記憶最適化は、EMOと呼ばれ、脳の記憶から過去の学習経験を思い出す人間の能力にインスパイアされている。
EMOは、限られた数の例によって提供される勾配が非形式的である場合でも、パラメータを正しい方向に更新する。
EMOは、ほとんど数ショットの分類ベンチマークでうまくスケールし、最適化ベースのメタラーニング手法の性能を改善している。
論文 参考訳(メタデータ) (2023-06-08T13:39:08Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。