論文の概要: Performance Analysis and Evaluation of Cloud Vision Emotion APIs
- arxiv url: http://arxiv.org/abs/2303.12974v1
- Date: Thu, 23 Mar 2023 00:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 16:11:22.867844
- Title: Performance Analysis and Evaluation of Cloud Vision Emotion APIs
- Title(参考訳): Cloud Vision Emotion APIの性能解析と評価
- Authors: Salik Ram Khanal, Prabin Sharma, Hugo Fernandes, Jo\~ao Barroso,
V\'itor Manuel de Jesus Filipe
- Abstract要約: 顔の感情の980イメージの公開データセットを用いて、よく知られた2つのAPIのパフォーマンスを比較した。
その結果,各感情の予測精度はクラウドサービスによって異なることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Facial expression is a way of communication that can be used to interact with
computers or other electronic devices and the recognition of emotion from faces
is an emerging practice with application in many fields. There are many
cloud-based vision application programming interfaces available that recognize
emotion from facial images and video. In this article, the performances of two
well-known APIs were compared using a public dataset of 980 images of facial
emotions. For these experiments, a client program was developed which iterates
over the image set, calls the cloud services, and caches the results of the
emotion detection for each image. The performance was evaluated in each class
of emotions using prediction accuracy. It has been found that the prediction
accuracy for each emotion varies according to the cloud service being used.
Similarly, each service provider presents a strong variation of performance
according to the class being analyzed, as can be seen with more detail in this
artilects.
- Abstract(参考訳): 表情はコンピュータや他の電子機器との対話に使用できるコミュニケーションの手段であり、顔からの感情の認識は多くの分野における応用の新たな実践である。
顔画像やビデオから感情を認識する、クラウドベースのビジョンアプリケーションプログラミングインターフェースが数多く用意されている。
本稿では、顔の感情の980イメージの公開データセットを用いて、2つのよく知られたAPIのパフォーマンスを比較した。
これらの実験のために、イメージセットを反復してクラウドサービスを呼び出し、各イメージに対する感情検出の結果をキャッシュするクライアントプログラムが開発された。
評価は予測精度を用いて各感情クラスで評価した。
使用するクラウドサービスによって、各感情の予測精度が変化することが判明した。
同様に、各サービスプロバイダは、分析されているクラスに応じて、パフォーマンスの強いバリエーションを示します。
関連論文リスト
- Multi-Branch Network for Imagery Emotion Prediction [4.618814297494939]
画像中の離散的感情と連続的感情の両方を予測する新しいマルチブランチネットワーク(MBN)を提案する。
提案手法は,mAPが28.4%,MAEが0.93で最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-12T18:34:56Z) - High-Level Context Representation for Emotion Recognition in Images [4.987022981158291]
画像から高レベルな文脈表現を抽出する手法を提案する。
このモデルは、この表現と感情を関連付けるために、1つのキューと1つのエンコードストリームに依存している。
我々のアプローチは従来のモデルよりも効率的であり、感情認識に関連する現実の問題に対処するために容易に展開できる。
論文 参考訳(メタデータ) (2023-05-05T13:20:41Z) - Real-time Emotion and Gender Classification using Ensemble CNN [0.0]
本稿では,人物の感情や性別をリアルタイムに検出できるシステムを構築するためのEnsemble CNNの実装について述べる。
我々の研究は、単一の顔画像だけでなく、複数の顔画像上で感情や性別を予測することができる。
論文 参考訳(メタデータ) (2021-11-15T13:51:35Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Real-time Facial Expression Recognition "In The Wild'' by Disentangling
3D Expression from Identity [6.974241731162878]
本稿では,1枚のRGB画像から人間の感情認識を行う新しい手法を提案する。
顔のダイナミックス、アイデンティティ、表情、外観、3Dポーズのバリエーションに富んだ大規模な顔ビデオデータセットを構築した。
提案するフレームワークは毎秒50フレームで動作し、3次元表現変動のパラメータを頑健に推定することができる。
論文 参考訳(メタデータ) (2020-05-12T01:32:55Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。