論文の概要: Trend-Aware Supervision: On Learning Invariance for Semi-Supervised Facial Action Unit Intensity Estimation
- arxiv url: http://arxiv.org/abs/2503.08078v1
- Date: Tue, 11 Mar 2025 06:21:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:43:42.276264
- Title: Trend-Aware Supervision: On Learning Invariance for Semi-Supervised Facial Action Unit Intensity Estimation
- Title(参考訳): トレンド・アウェア・スーパービジョン:半監督された顔行動単位強度推定のための学習不変性について
- Authors: Yingjie Chen, Jiarui Zhang, Tao Wang, Yun Liang,
- Abstract要約: 本研究は,3種類のトレンド意識を追求するtextbfTrend-textbfAware textbfSupervision(TAS)を提案する。
TASは、トレーニング中の傾向認識を高めて、対応する顔の外観変化を表すAU固有の特徴を学習することにより、素早い相関問題を緩和する。
- 参考スコア(独自算出の注目度): 9.801711534323605
- License:
- Abstract: With the increasing need for facial behavior analysis, semi-supervised AU intensity estimation using only keyframe annotations has emerged as a practical and effective solution to relieve the burden of annotation. However, the lack of annotations makes the spurious correlation problem caused by AU co-occurrences and subject variation much more prominent, leading to non-robust intensity estimation that is entangled among AUs and biased among subjects. We observe that trend information inherent in keyframe annotations could act as extra supervision and raising the awareness of AU-specific facial appearance changing trends during training is the key to learning invariant AU-specific features. To this end, we propose \textbf{T}rend-\textbf{A}ware \textbf{S}upervision (TAS), which pursues three kinds of trend awareness, including intra-trend ranking awareness, intra-trend speed awareness, and inter-trend subject awareness. TAS alleviates the spurious correlation problem by raising trend awareness during training to learn AU-specific features that represent the corresponding facial appearance changes, to achieve intensity estimation invariance. Experiments conducted on two commonly used AU benchmark datasets, BP4D and DISFA, show the effectiveness of each kind of awareness. And under trend-aware supervision, the performance can be improved without extra computational or storage costs during inference.
- Abstract(参考訳): 顔行動分析の必要性が高まるにつれて、キーフレームアノテーションのみを用いた半教師付きAU強度推定が、アノテーションの負担を軽減するための実用的で効果的なソリューションとして現れてきた。
しかし、アノテーションの欠如は、AUの共起や被写体の変化によって引き起こされる急激な相関問題をはるかに顕著にし、AU間で絡み合い、被写体間で偏りがある非破壊強度の推定につながる。
キーフレームアノテーションに固有のトレンド情報は、追加の監視として機能し、トレーニング中のAU固有の顔の外観変化傾向の認識を高めることが、AU固有の不変特徴を学習するための鍵となる。
この目的のために, 階層内ランキング認識, 列内速度認識, 列内対象意識を含む3種類の傾向意識を追求する, TAS(textbf{T}rend-\textbf{A}ware \textbf{S}upervision)を提案する。
TASは、トレーニング中の傾向認識を高めて、対応する顔の外観変化を表すAU固有の特徴を学習し、強度推定不変性を達成することにより、突発的な相関問題を緩和する。
BP4DとdisFAという2つのAUベンチマークデータセットを用いて行った実験は、それぞれの種類の認識の有効性を示している。
そして、トレンド対応の監視の下では、推論中に余分な計算コストやストレージコストを伴わずに性能を改善することができる。
関連論文リスト
- Interpretable Vital Sign Forecasting with Model Agnostic Attention Maps [5.354055742467353]
本稿では,ディープラーニングモデルとアテンションメカニズムを組み合わせたフレームワークを提案する。
注意機構は,N-HiTSやN-BEATSといった様々なブラックボックス時系列予測モデルに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-05-02T20:19:07Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - More Than Just Attention: Learning Cross-Modal Attentions with
Contrastive Constraints [63.08768589044052]
本稿では,コントラストコンテンツリソーシング (CCR) とコントラストコンテンツスワッピング (CCS) の制約を提案する。
CCRとCCSの制約は、明示的な注意アノテーションを必要とせず、対照的な学習方法で注意モデルのトレーニングを監督する。
Flickr30kとMS-COCOのデータセットの実験は、これらの注意制約を2つの最先端の注意ベースモデルに統合することで、モデルのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2021-05-20T08:48:10Z) - Making Attention Mechanisms More Robust and Interpretable with Virtual
Adversarial Training for Semi-Supervised Text Classification [9.13755431537592]
VAT(Virtual Adversarial Training)に基づく注意メカニズムの新たな一般トレーニング手法を提案する。
VATは、従来の研究で報告された注意機構が摂動に弱いという半教師付き設定で、ラベルのないデータから敵の摂動を計算することができる。
論文 参考訳(メタデータ) (2021-04-18T07:51:45Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Controlling the Interaction Between Generation and Inference in
Semi-Supervised Variational Autoencoders Using Importance Weighting [0.9582466286528458]
変分オートエンコーダ(VAE)は半教師あり学習に広く使われている。
我々は,学習した生成モデルの後部を用いて,部分的に観察された潜在変数の学習において,推論モデルを導くことを観察した。
重要度重み付けを用いて、部分的に観察された潜伏変数のどちらかか、または観測されていない潜伏変数のどちらかを優先する2つの新しい目的を導出する。
論文 参考訳(メタデータ) (2020-10-13T17:01:40Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Attention Meets Perturbations: Robust and Interpretable Attention with
Adversarial Training [7.106986689736828]
我々は、自然言語処理タスクのための一般的な訓練手法を提案し、例えば、注意のためのAT(Attention AT)と、注意のためのより解釈可能なAT(Attention iAT)を提案する。
提案手法は,ATによる予測性能とモデル解釈性を改善した。
論文 参考訳(メタデータ) (2020-09-25T07:26:45Z) - Spectrum-Guided Adversarial Disparity Learning [52.293230153385124]
本稿では,新たなエンド・ツー・エンドの知識指向学習フレームワークを提案する。
2つの競合符号化分布を用いてクラス条件付きクラス内不一致を表現し、学習された不一致を識別することで精製された潜伏符号を学習する。
4つのHARベンチマークデータセットに対する実験により,提案手法の頑健性と,最先端の手法による一般化が実証された。
論文 参考訳(メタデータ) (2020-07-14T05:46:27Z) - Cost-effective Interactive Attention Learning with Neural Attention
Processes [79.8115563067513]
対話型注意学習(Interactive Attention Learning, IAL)と呼ばれる対話型学習フレームワークを提案する。
IALは、人間のアノテーションが不足しているため、過度に適合する傾向がある。
我々は,サンプル効率のよい注意機構と,コスト効率のよいインスタンスと機能の再ランクアルゴリズムを提案することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2020-06-09T17:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。