論文の概要: Meta-Auxiliary Learning for Micro-Expression Recognition
- arxiv url: http://arxiv.org/abs/2404.12024v1
- Date: Thu, 18 Apr 2024 09:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 12:51:17.618338
- Title: Meta-Auxiliary Learning for Micro-Expression Recognition
- Title(参考訳): マイクロ圧縮認識のためのメタ補助学習
- Authors: Jingyao Wang, Yunhan Tian, Yuxuan Yang, Xiaoxin Chen, Changwen Zheng, Wenwen Qiang,
- Abstract要約: 高速かつロバストなマイクロ圧縮認識を実現するために,LightmanNetと呼ばれる二分岐メタ補助学習手法を提案する。
LightmanNetは、二分岐二レベル最適化プロセスを通じて、限られたデータから一般的なMER知識を学習する。
さまざまなベンチマークデータセットの実験では、LightmanNetの優れた堅牢性と効率が示されている。
- 参考スコア(独自算出の注目度): 12.578623074417013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expressions (MEs) are involuntary movements revealing people's hidden feelings, which has attracted numerous interests for its objectivity in emotion detection. However, despite its wide applications in various scenarios, micro-expression recognition (MER) remains a challenging problem in real life due to three reasons, including (i) data-level: lack of data and imbalanced classes, (ii) feature-level: subtle, rapid changing, and complex features of MEs, and (iii) decision-making-level: impact of individual differences. To address these issues, we propose a dual-branch meta-auxiliary learning method, called LightmanNet, for fast and robust micro-expression recognition. Specifically, LightmanNet learns general MER knowledge from limited data through a dual-branch bi-level optimization process: (i) In the first level, it obtains task-specific MER knowledge by learning in two branches, where the first branch is for learning MER features via primary MER tasks, while the other branch is for guiding the model obtain discriminative features via auxiliary tasks, i.e., image alignment between micro-expressions and macro-expressions since their resemblance in both spatial and temporal behavioral patterns. The two branches of learning jointly constrain the model of learning meaningful task-specific MER knowledge while avoiding learning noise or superficial connections between MEs and emotions that may damage its generalization ability. (ii) In the second level, LightmanNet further refines the learned task-specific knowledge, improving model generalization and efficiency. Extensive experiments on various benchmark datasets demonstrate the superior robustness and efficiency of LightmanNet.
- Abstract(参考訳): マイクロ・エクスプレッション(ME)は、人々の隠れた感情を明らかにする不随意運動であり、感情検出においてその客観性に多くの関心を集めている。
しかし、様々なシナリオで広く応用されているにもかかわらず、MER(micro-Expression Recognition)は3つの理由から現実生活において難しい問題となっている。
(i)データレベル:データ不足と不均衡なクラス。
(二)機能レベル:微妙、急激な変化、及びMEの複雑な特徴
(三)意思決定レベル:個人差の影響。
これらの問題に対処するために,高速かつ堅牢なマイクロ圧縮認識のための,LightmanNetと呼ばれる二分岐メタ補助学習手法を提案する。
具体的には、LightmanNetは二分岐二レベル最適化プロセスを通じて、限られたデータから一般的なMER知識を学習する。
二 第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第一段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第一段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階において、第二段階的に、第二段階において、第二段階的に、第二段階的に、第二段階において、第二段階的に、第二段階において、第二段階において、第二段階を学習する。
学習の2つの分野は、意味のあるタスク固有のMER知識の学習モデルと、その一般化能力を損なう可能性のあるMEと感情の間の学習ノイズや表面的つながりを避けながら、協調的に制約する。
第二に、LightmanNetは学習したタスク固有の知識をさらに洗練し、モデルの一般化と効率を改善します。
さまざまなベンチマークデータセットに対する大規模な実験は、LightmanNetの優れた堅牢性と効率を示している。
関連論文リスト
- Exploring Knowledge Boundaries in Large Language Models for Retrieval Judgment [56.87031484108484]
大規模言語モデル(LLM)は、その実践的応用でますます認識されている。
Retrieval-Augmented Generation (RAG)はこの課題に取り組み、LLMに大きな影響を与えている。
中立あるいは有害な結果をもたらす検索要求を最小化することにより、時間と計算コストの両方を効果的に削減できる。
論文 参考訳(メタデータ) (2024-11-09T15:12:28Z) - RoRA-VLM: Robust Retrieval-Augmented Vision Language Models [41.09545760534495]
RORA-VLMは、視覚言語モデルに特化して設計された、新規で堅牢な検索拡張フレームワークである。
提案手法の有効性とロバスト性を,広く採用されている3つのベンチマークデータセット上で検証する。
論文 参考訳(メタデータ) (2024-10-11T14:51:00Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - Hacking Task Confounder in Meta-Learning [18.179340061914708]
本稿では,メタ学習コーサル表現(MetaCRL)を提案する。
我々の研究は、ベンチマークデータセット上での最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2023-12-10T05:33:40Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - MetaMorphosis: Task-oriented Privacy Cognizant Feature Generation for
Multi-task Learning [6.056197449765416]
本稿ではMetaMorphosisと呼ばれる,深層学習に基づくプライバシー認識機能生成プロセスを提案する。
本稿では,MetaMorphosisが,プライバシー要件を保証し,近年の敵対的学習や普遍的特徴生成方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-13T01:59:07Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - Online Structured Meta-learning [137.48138166279313]
現在のオンラインメタ学習アルゴリズムは、グローバルに共有されたメタラーナーを学ぶために限られている。
この制限を克服するオンライン構造化メタラーニング(OSML)フレームワークを提案する。
3つのデータセットの実験は、提案フレームワークの有効性と解釈可能性を示している。
論文 参考訳(メタデータ) (2020-10-22T09:10:31Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。