論文の概要: Infused Suppression Of Magnification Artefacts For Micro-AU Detection
- arxiv url: http://arxiv.org/abs/2504.09326v1
- Date: Sat, 12 Apr 2025 20:08:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:14.511456
- Title: Infused Suppression Of Magnification Artefacts For Micro-AU Detection
- Title(参考訳): マイクロAU検出のためのマグニチュードアーティファクトの注入抑制
- Authors: Huai-Qian Khor, Yante Li, Xingxun Jiang, Guoying Zhao,
- Abstract要約: 顔の微小表現は自然に、短く、微妙な顔の動きであり、基礎となる、抑制された感情を明らかにする。
マイクロ・エクスプレッション分析の難しさの1つは、顔の動きが微妙で短くなっていることである。
本稿では,アクション・ユニット(AU)学習を制約するために動作コンテキストを活用する一元的特徴注入フレームワークであるInfuseNetを提案する。
- 参考スコア(独自算出の注目度): 18.541798482576326
- License:
- Abstract: Facial micro-expressions are spontaneous, brief and subtle facial motions that unveil the underlying, suppressed emotions. Detecting Action Units (AUs) in micro-expressions is crucial because it yields a finer representation of facial motions than categorical emotions, effectively resolving the ambiguity among different expressions. One of the difficulties in micro-expression analysis is that facial motions are subtle and brief, thereby increasing the difficulty in correlating facial motion features to AU occurrence. To bridge the subtlety issue, flow-related features and motion magnification are a few common approaches as they can yield descriptive motion changes and increased motion amplitude respectively. While motion magnification can amplify the motion changes, it also accounts for illumination changes and projection errors during the amplification process, thereby creating motion artefacts that confuse the model to learn inauthentic magnified motion features. The problem is further aggravated in the context of a more complicated task where more AU classes are analyzed in cross-database settings. To address this issue, we propose InfuseNet, a layer-wise unitary feature infusion framework that leverages motion context to constrain the Action Unit (AU) learning within an informative facial movement region, thereby alleviating the influence of magnification artefacts. On top of that, we propose leveraging magnified latent features instead of reconstructing magnified samples to limit the distortion and artefacts caused by the projection inaccuracy in the motion reconstruction process. Via alleviating the magnification artefacts, InfuseNet has surpassed the state-of-the-art results in the CD6ME protocol. Further quantitative studies have also demonstrated the efficacy of motion artefacts alleviation.
- Abstract(参考訳): 顔の微小表現は自然に、短く、微妙な顔の動きであり、基礎となる、抑制された感情を明らかにする。
マイクロ表現における行動単位(AUs)の検出は、カテゴリー的感情よりも顔の動きの微細な表現が得られ、異なる表現間のあいまいさを効果的に解消するので重要である。
マイクロ・エクスプレッション分析の難しさの1つは、顔の動きが微妙で簡潔であるため、顔の動きの特徴とAUの発生との関連が困難になることである。
微妙な問題を補うために、フロー関連特徴と運動倍率は、それぞれ記述的な動きの変化と運動振幅の増加をもたらすことができるため、いくつかの一般的なアプローチである。
運動拡大は運動の変化を増幅するが、増幅過程における照明変化や投影誤差も考慮し、それによってモデルを混乱させて不正確な運動特徴を学習する運動人工物を生成する。
この問題は、より多くのAUクラスがデータベース間設定で分析される、より複雑なタスクの文脈でさらに悪化する。
この問題に対処するために,動作コンテキストを活用するレイヤワイドなユニタリ機能注入フレームワークであるInfuseNetを提案する。
さらに, 提案手法では, 投影不正確さによる歪みやアーチファクトを抑えるために, 拡張されたサンプルを再構成する代わりに, 拡張された潜在特徴を活用することを提案する。
倍率アーチファクトを緩和するため、InfuseNetはCD6MEプロトコルの最先端結果を上回った。
さらに定量的研究により、運動アーチファクトの緩和効果が示された。
関連論文リスト
- Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - Pay Attention and Move Better: Harnessing Attention for Interactive Motion Generation and Training-free Editing [23.70162749652725]
我々は,注目マップを操作することで,シンプルかつ効果的な動作編集手法を多目的に開発する。
提案手法は,優れた説明性を備えた優れた生成・編集能力を有する。
論文 参考訳(メタデータ) (2024-10-24T17:59:45Z) - SpotFormer: Multi-Scale Spatio-Temporal Transformer for Facial Expression Spotting [11.978551396144532]
本稿では,表情スポッティングのための効率的なフレームワークを提案する。
まず,スライディングウィンドウを用いたマルチリゾリューション・オプティカルフロー(SW-MRO)機能を提案する。
第2に,SW-MRO特徴の顔時間関係を同時に符号化し,フレームレベルの精度推定を行うマルチスケール時間変換器であるSpotFormerを提案する。
第3に,異なる種類の表現の識別性を高めるために,教師付きコントラスト学習をSpotFormerに導入する。
論文 参考訳(メタデータ) (2024-07-30T13:02:08Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - eMotion-GAN: A Motion-based GAN for Photorealistic and Facial Expression Preserving Frontal View Synthesis [3.2498796510544636]
正面視合成のための新しい深層学習手法であるeMotion-GANを提案する。
頭部変動による動きをノイズとして,表情による動きを関連情報として考慮し,ノイズを除去する訓練を行った。
そして、フィルタされた動きを中性前頭面にマッピングして、対応する表現性前頭面を生成する。
論文 参考訳(メタデータ) (2024-04-15T17:08:53Z) - EulerMormer: Robust Eulerian Motion Magnification via Dynamic Filtering
within Transformer [30.470336098766765]
ビデオモーション・マグニフィケーション(VMM)は、人間の視覚知覚能力の解像度限界を破ることを目的としている。
本稿では,静的場適応型復調を実現するための新しい動的フィルタリング手法を提案する。
我々は、ユーラーモーマーがユーレリア視点からより堅牢なビデオモーション倍率を達成するための広範な実験を実証する。
論文 参考訳(メタデータ) (2023-12-07T09:10:16Z) - Fearless Luminance Adaptation: A Macro-Micro-Hierarchical Transformer
for Exposure Correction [65.5397271106534]
単一のニューラルネットワークは、すべての露光問題に対処することが難しい。
特に、コンボリューションは、極端に過度に露出した領域における忠実な色や詳細を復元する能力を妨げる。
本稿では,マクロマイクロ階層変換器を提案する。マクロマイクロ階層変換器は,長距離依存を捉えるマクロアテンション,局所特徴を抽出するマイクロアテンション,粗大な修正のための階層構造を提案する。
論文 参考訳(メタデータ) (2023-09-02T09:07:36Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - Annealed Score-Based Diffusion Model for MR Motion Artifact Reduction [37.41561581618164]
モーションアーティファクトリダクションは、MRイメージングにおいて重要な研究トピックの1つである。
我々はMRIの動作アーチファクト低減のためのアニール式スコアベース拡散モデルを提案する。
実験により, 提案手法は, シミュレーションおよび生体内動作アーティファクトの両方を効果的に低減することを確認した。
論文 参考訳(メタデータ) (2023-01-08T12:16:08Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。