論文の概要: iMiGUE: An Identity-free Video Dataset for Micro-Gesture Understanding
and Emotion Analysis
- arxiv url: http://arxiv.org/abs/2107.00285v1
- Date: Thu, 1 Jul 2021 08:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 21:39:36.964873
- Title: iMiGUE: An Identity-free Video Dataset for Micro-Gesture Understanding
and Emotion Analysis
- Title(参考訳): iMiGUE:マイクロジェスチャー理解と感情分析のためのアイデンティティフリービデオデータセット
- Authors: Xin Liu, Henglin Shi, Haoyu Chen, Zitong Yu, Xiaobai Li, Guoying
Zhaoz?
- Abstract要約: iMiGUE(iMiGUE)は、マイクロジェスチャ理解・感情分析のためのアイデンティティフリービデオデータセットである。
iMiGUEは、内的感情によって引き起こされる意図しない行動(micro-gesture)に焦点を当てている。
- 参考スコア(独自算出の注目度): 23.261770969903065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new dataset for the emotional artificial intelligence
research: identity-free video dataset for Micro-Gesture Understanding and
Emotion analysis (iMiGUE). Different from existing public datasets, iMiGUE
focuses on nonverbal body gestures without using any identity information,
while the predominant researches of emotion analysis concern sensitive
biometric data, like face and speech. Most importantly, iMiGUE focuses on
micro-gestures, i.e., unintentional behaviors driven by inner feelings, which
are different from ordinary scope of gestures from other gesture datasets which
are mostly intentionally performed for illustrative purposes. Furthermore,
iMiGUE is designed to evaluate the ability of models to analyze the emotional
states by integrating information of recognized micro-gesture, rather than just
recognizing prototypes in the sequences separately (or isolatedly). This is
because the real need for emotion AI is to understand the emotional states
behind gestures in a holistic way. Moreover, to counter for the challenge of
imbalanced sample distribution of this dataset, an unsupervised learning method
is proposed to capture latent representations from the micro-gesture sequences
themselves. We systematically investigate representative methods on this
dataset, and comprehensive experimental results reveal several interesting
insights from the iMiGUE, e.g., micro-gesture-based analysis can promote
emotion understanding. We confirm that the new iMiGUE dataset could advance
studies of micro-gesture and emotion AI.
- Abstract(参考訳): 感情的人工知能研究のための新しいデータセット:iMiGUE(Micro-Gesture Understanding and Emotion Analysis)のためのアイデンティティフリービデオデータセットを紹介する。
既存の公開データセットとは異なり、imigueは身元情報を使用しない非言語的な身体のジェスチャーに焦点を当てている。
最も重要なのは、マイクロジェスチャ、すなわち内なる感情によって引き起こされる意図しない行動に焦点をあてることである。
さらに、イミグは、単に配列内のプロトタイプを別々に(あるいは孤立的に)認識するのではなく、認識されたマイクロジェスチャの情報を統合することによって、感情状態を分析するモデルの能力を評価するように設計されている。
これは、感情に対する真の必要性は、ジェスチャの背後にある感情状態を完全に理解することである。
さらに, このデータセットの不均衡なサンプル分布に対処するために, マイクロジェスチャシーケンス自体から潜伏表現をキャプチャする教師なし学習手法を提案する。
本データセットにおける代表的手法を体系的に検討し, 総合的な実験結果から, イミグから得られたいくつかの興味深い知見,例えば, マイクロジェスチャに基づく分析が感情理解を促進することを明らかにする。
新しいiMiGUEデータセットは、マイクロジェスチャーと感情AIの研究を進展させる可能性があることを確認した。
関連論文リスト
- Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Digital Fingerprinting of Microstructures [58.720142291102135]
微細な情報をフィンガープリントする効率的な方法を見つけることは、データ中心の機械学習アプローチを活用するための重要なステップである。
本稿では,マイクロ構造を分類し,その特徴を機械学習タスクに応用する。
特に、ImageNetデータセットで事前訓練された畳み込みニューラルネットワーク(CNN)によるトランスファーラーニングを利用するメソッドは、他の方法よりも優れていることが一般的に示されている。
論文 参考訳(メタデータ) (2022-03-25T15:40:44Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z) - Analyzing the Influence of Dataset Composition for Emotion Recognition [0.0]
我々は2つのマルチモーダル感情認識データセットにおける影響データ収集手法の分析を行った。
完全なIEMOCAPデータセットを用いた実験は、構成がOMG-Emotion Behaviorデータセットと比較して一般化性能に悪影響を及ぼすことを示している。
論文 参考訳(メタデータ) (2021-03-05T14:20:59Z) - A Variational Information Bottleneck Approach to Multi-Omics Data
Integration [98.6475134630792]
本稿では,不完全な多視点観測のための深い変動情報ボトルネック (IB) 手法を提案する。
本手法は,対象物に関連のある視点内および視点間相互作用に焦点をあてるために,観測された視点の辺縁および結合表現にISBフレームワークを適用した。
実世界のデータセットの実験から、我々の手法はデータ統合から常に利益を得て、最先端のベンチマークより優れています。
論文 参考訳(メタデータ) (2021-02-05T06:05:39Z) - Latent Feature Representation via Unsupervised Learning for Pattern
Discovery in Massive Electron Microscopy Image Volumes [4.278591555984395]
特に,データセットにおける意味的類似性を捉える潜在表現を学ぶための教師なしのディープラーニングアプローチを提案する。
動物脳の比較的小さな部分でもテラバイトの画像を要求できるナノスケールの電子顕微鏡データに適用する手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-12-22T17:14:19Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。