論文の概要: Is Micro-expression Ethnic Leaning?
- arxiv url: http://arxiv.org/abs/2507.10209v1
- Date: Mon, 14 Jul 2025 12:27:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.866516
- Title: Is Micro-expression Ethnic Leaning?
- Title(参考訳): マイクロ・エクスプレッション・エスニック・リーンはリーンか?
- Authors: Huai-Qian Khor, Yante Li, Xingxun Jiang, Guoying Zhao,
- Abstract要約: シミュレーションされたマイクロ圧縮シナリオにおける民族の影響レベルについて検討する。
本研究では、民族的文脈を感情的特徴学習プロセスに統合する枠組みを提案する。
- 参考スコア(独自算出の注目度): 18.541798482576326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How much does ethnicity play its part in emotional expression? Emotional expression and micro-expression research probe into understanding human psychological responses to emotional stimuli, thereby revealing substantial hidden yet authentic emotions that can be useful in the event of diagnosis and interviews. While increased attention had been provided to micro-expression analysis, the studies were done under Ekman's assumption of emotion universality, where emotional expressions are identical across cultures and social contexts. Our computational study uncovers some of the influences of ethnic background in expression analysis, leading to an argument that the emotional universality hypothesis is an overgeneralization from the perspective of manual psychological analysis. In this research, we propose to investigate the level of influence of ethnicity in a simulated micro-expression scenario. We construct a cross-cultural micro-expression database and algorithmically annotate the ethnic labels to facilitate the investigation. With the ethnically annotated dataset, we perform a prima facie study to compare mono-ethnicity and stereo-ethnicity in a controlled environment, which uncovers a certain influence of ethnic bias via an experimental way. Building on this finding, we propose a framework that integrates ethnic context into the emotional feature learning process, yielding an ethnically aware framework that recognises ethnicity differences in micro-expression recognition. For improved understanding, qualitative analyses have been done to solidify the preliminary investigation into this new realm of research. Code is publicly available at https://github.com/IcedDoggie/ICMEW2025_EthnicMER
- Abstract(参考訳): 民族は感情表現においてどの程度の役割を担っているのか?
感情表現とマイクロ・エクスプレッション・リサーチ・プローブは、感情刺激に対する人間の心理的反応を理解するために、診断やインタビューの場合に有用な、かなり隠された真正な感情を明らかにする。
マイクロ・エクスプレッション分析に注意が向けられたが、これらの研究はエックマンの感情的普遍性(英語版)という仮定の下で行われ、感情的表現は文化や社会的文脈で同一である。
本研究は,表現分析における民族的背景の影響を明らかにし,感情的普遍性仮説は,手動心理学的分析の観点から過大な一般化であると主張する。
本研究では,シミュレートされたマイクロエプレッションシナリオにおける民族の影響レベルについて検討する。
我々は、異文化間のマイクロ圧縮データベースを構築し、その調査を容易にするために、民族ラベルをアルゴリズムで注釈付けする。
民族的アノテートされたデータセットを用いて、コントロールされた環境における単民族性とステレオ民族性を比較し、実験的な方法で民族的偏見の影響を明らかにする。
この発見に基づいて、我々は、民族的文脈を感情的特徴学習プロセスに統合する枠組みを提案し、ミクロな表現認識における民族性の違いを認識する民族的に意識された枠組みを生み出した。
理解を深めるために、この新たな研究領域に関する予備的な調査を固めるために、質的な分析が行われた。
コードはhttps://github.com/IcedDoggie/ICMEW2025_EthnicMERで公開されている。
関連論文リスト
- Exploring Cultural Nuances in Emotion Perception Across 15 African Languages [8.894537613998516]
アフリカ15言語における感情表現の言語間比較分析
感情表現の4つの重要な側面として,テキスト長,感情極性,感情共起,強度変動について検討した。
ナイジェリアの言語では、IsiXhosaのような言語では、ネガティブな感情の頻度が低いのに対し、ネガティブな感情の頻度は低い。
論文 参考訳(メタデータ) (2025-03-25T13:30:03Z) - Context is Important in Depressive Language: A Study of the Interaction Between the Sentiments and Linguistic Markers in Reddit Discussions [2.6571678272335717]
本研究では,抑うつにおける言語マーカーと感情表現の文脈としての議論トピックの影響について検討した。
我々の感情分析では、抑うつ者の感情の強さは、コントロールよりも否定的感情と肯定的感情の両方が高いことが判明した。
論文 参考訳(メタデータ) (2024-05-28T11:19:39Z) - Language-based Valence and Arousal Expressions between the United States and China: a Cross-Cultural Examination [6.122854363918857]
本稿は,Twitter/X(米国)とSina Weibo(中国本土)を比較し,感情表現の文化的差異を考察する。
NRC-VADレキシコンを用いて、両プラットフォームにまたがる感情表現の異なるパターンを同定した。
われわれは、米国ユーザーが中国ユーザーよりも感情的な強さを示すなど、異文化間の大きな差異を明らかにした。
論文 参考訳(メタデータ) (2024-01-10T16:32:25Z) - Affection: Learning Affective Explanations for Real-World Visual Data [50.28825017427716]
我々は,85,007枚の公開画像に対して,感情反応と自由形式のテキスト説明を含む大規模データセットを研究コミュニティに導入し,共有する。
本研究は, 被写体集団に大きな支持を得て, 潜在的に有意な感情反応をとらえる上で, 重要な共通基盤があることを示唆する。
私たちの研究は、より豊かで、より人間中心で、感情に敏感な画像分析システムへの道を開くものです。
論文 参考訳(メタデータ) (2022-10-04T22:44:17Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - iMiGUE: An Identity-free Video Dataset for Micro-Gesture Understanding
and Emotion Analysis [23.261770969903065]
iMiGUE(iMiGUE)は、マイクロジェスチャ理解・感情分析のためのアイデンティティフリービデオデータセットである。
iMiGUEは、内的感情によって引き起こされる意図しない行動(micro-gesture)に焦点を当てている。
論文 参考訳(メタデータ) (2021-07-01T08:15:14Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。