論文の概要: Using Crowdsourcing to Train Facial Emotion Machine Learning Models with
Ambiguous Labels
- arxiv url: http://arxiv.org/abs/2101.03477v1
- Date: Sun, 10 Jan 2021 05:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 08:21:53.256261
- Title: Using Crowdsourcing to Train Facial Emotion Machine Learning Models with
Ambiguous Labels
- Title(参考訳): クラウドソーシングによる曖昧なラベルを用いた顔感情機械学習モデルの訓練
- Authors: Peter Washington, Onur Cezmi Mutlu, Emilie Leblanc, Aaron Kline, Cathy
Hou, Brianna Chrisman, Nate Stockham, Kelley Paskov, Catalin Voss, Nick
Haber, Dennis Wall
- Abstract要約: 伝統的なワンホットエンコードラベル表現を、群衆のラベル分布に置き換えます。
感情コンピューティングの多くのアプリケーションにおいて、人間の解釈によく似た感情確率分布を報告することは、従来の機械学習のメトリクスよりも重要である。
- 参考スコア(独自算出の注目度): 2.7625689608741157
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Current emotion detection classifiers predict discrete emotions. However,
literature in psychology has documented that compound and ambiguous facial
expressions are often evoked by humans. As a stride towards development of
machine learning models that more accurately reflect compound and ambiguous
emotions, we replace traditional one-hot encoded label representations with a
crowd's distribution of labels. We center our study on the Child Affective
Facial Expression (CAFE) dataset, a gold standard dataset of pediatric facial
expressions which includes 100 human labels per image. We first acquire
crowdsourced labels for 207 emotions from CAFE and demonstrate that the
consensus labels from the crowd tend to match the consensus from the original
CAFE raters, validating the utility of crowdsourcing. We then train two
versions of a ResNet-152 classifier on CAFE images with two types of labels (1)
traditional one-hot encoding and (2) vector labels representing the crowd
distribution of responses. We compare the resulting output distributions of the
two classifiers. While the traditional F1-score for the one-hot encoding
classifier is much higher (94.33% vs. 78.68%), the output probability vector of
the crowd-trained classifier much more closely resembles the distribution of
human labels (t=3.2827, p=0.0014). For many applications of affective
computing, reporting an emotion probability distribution that more closely
resembles human interpretation can be more important than traditional machine
learning metrics. This work is a first step for engineers of interactive
systems to account for machine learning cases with ambiguous classes and we
hope it will generate a discussion about machine learning with ambiguous labels
and leveraging crowdsourcing as a potential solution.
- Abstract(参考訳): 現在の感情検出分類器は、離散的な感情を予測する。
しかし心理学の文献では、複合的で曖昧な表情はしばしば人間によって誘発されると記録されている。
複雑で曖昧な感情をより正確に反映した機械学習モデルの開発に向けて、従来のワンホット符号化されたラベル表現を、群衆のラベル分布に置き換える。
本研究は,小児表情のゴールド標準データセットであるcafe(child affective facial expression)データセットを中心とし,画像に100個の人間のラベルを含む。
私たちはまず、CAFEから207の感情のクラウドソースラベルを取得し、群衆からのコンセンサスラベルがオリジナルのCAFEラウンダーのコンセンサスと一致し、クラウドソーシングの有用性を検証する傾向があることを実証した。
次に,カフェ画像上でresnet-152分類器の2つのバージョンを訓練し,従来の1ホットエンコーディングと,応答の群集分布を表すベクターラベルの2種類のラベルを訓練した。
2つの分類器の出力分布を比較した。
ワンホット符号化分類器の伝統的なF1スコアは94.33%対78.68%であるのに対し、群衆訓練分類器の出力確率ベクトルは人間のラベルの分布と非常によく似ている(t=3.2827, p=0.0014)。
感情コンピューティングの多くのアプリケーションにおいて、人間の解釈によく似た感情確率分布を報告することは、従来の機械学習メトリクスよりも重要である。
この作業は、あいまいなクラスを持つ機械学習ケースを、インタラクティブシステムのエンジニアが考慮するための第一歩であり、あいまいなラベルによる機械学習に関する議論を生成し、クラウドソーシングを潜在的なソリューションとして活用することを願っている。
関連論文リスト
- The Whole Is Bigger Than the Sum of Its Parts: Modeling Individual Annotators to Capture Emotional Variability [7.1394038985662664]
感情表現と知覚はニュアンスがあり、複雑で、非常に主観的なプロセスである。
ほとんどの音声感情認識タスクは、アノテータラベルを基底真理として平均化することでこの問題に対処する。
従来の研究は感情の多様性を捉えるために分布を学習しようとしたが、これらの手法は個々のアノテータに関する情報も失っている。
本研究では,モデル学習中の感情分布の学習を可能にする連続モデル出力から分布を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T19:24:06Z) - CAGE: Circumplex Affect Guided Expression Inference [9.108319009019912]
本稿では,2つの共通データセット (AffectNet と EMOTIC) に対して,感情の概略モデルの構成要素を具備した詳細な分析を行った。
本稿では,軽量アプリケーションに適した表情予測モデルを提案する。
論文 参考訳(メタデータ) (2024-04-23T12:30:17Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - SeedBERT: Recovering Annotator Rating Distributions from an Aggregated
Label [43.23903984174963]
単一ラベルからアノテータ評価分布を復元するSeedBERTを提案する。
人間の評価は,SeedBERTの注意機構がアノテータの不一致の原因と一致していることを示している。
論文 参考訳(メタデータ) (2022-11-23T18:35:15Z) - Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion [0.0]
マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-28T02:27:18Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Label Distribution Amendment with Emotional Semantic Correlations for
Facial Expression Recognition [69.18918567657757]
意味空間における表現間の相関を利用して,各顔画像のラベル分布を補正する手法を提案する。
各画像のセマンティックグラフとタスククラス関連グラフを比較することにより、そのラベル分布の信頼性を評価する。
実験により,提案手法は最先端手法と比較した場合よりも有効であることが示された。
論文 参考訳(メタデータ) (2021-07-23T07:46:14Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - End-to-End Learning from Noisy Crowd to Supervised Machine Learning
Models [6.278267504352446]
我々は、ハイブリッドインテリジェンス、すなわち深層モデルと人間の専門家を組み合わせることで、ノイズの多いクラウドソースデータからエンドツーエンドの学習フレームワークを設計することを提唱する。
ラベルアグリゲーションは,アノテータの混乱行列を推定して学習プロセスを改善することにより,どのような効果があるかを示す。
我々は、SVMとディープニューラルネットワークを用いて、複数の画像データセット上での戦略の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-13T09:48:30Z) - EmoGraph: Capturing Emotion Correlations using Graph Networks [71.53159402053392]
グラフネットワークを通じて異なる感情間の依存関係をキャプチャするEmoGraphを提案する。
EmoGraphは特にマクロF1において、強いベースラインを上回ります。
キャプチャーされた感情相関は、シングルラベルの分類作業にも有用であることを示す実験である。
論文 参考訳(メタデータ) (2020-08-21T08:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。