論文の概要: Can CNNs Accurately Classify Human Emotions? A Deep-Learning Facial
Expression Recognition Study
- arxiv url: http://arxiv.org/abs/2310.09473v1
- Date: Sat, 14 Oct 2023 02:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:11:22.260875
- Title: Can CNNs Accurately Classify Human Emotions? A Deep-Learning Facial
Expression Recognition Study
- Title(参考訳): CNNは人間の感情を正確に分類できるのか?
ディープラーニングによる表情認識に関する研究
- Authors: Ashley Jisue Hong, David DiStefano, Sejal Dua
- Abstract要約: 本研究では,人間の表情を認識・分類するCNNモデルの能力について検討する。
我々は、入力データの各感情クラスを分類する際に、モデルが偶然(33.3%)より優れていると仮定した。
本研究の結果は、モデルが1万枚以上の画像(データ)に対して75%精度を持つため、仮説を支持した。
- 参考スコア(独自算出の注目度): 0.41436032949434404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotional Artificial Intelligences are currently one of the most anticipated
developments of AI. If successful, these AIs will be classified as one of the
most complex, intelligent nonhuman entities as they will possess sentience, the
primary factor that distinguishes living humans and mechanical machines. For
AIs to be classified as "emotional," they should be able to empathize with
others and classify their emotions because without such abilities they cannot
normally interact with humans. This study investigates the CNN model's ability
to recognize and classify human facial expressions (positive, neutral,
negative). The CNN model made for this study is programmed in Python and
trained with preprocessed data from the Chicago Face Database. The model is
intentionally designed with less complexity to further investigate its ability.
We hypothesized that the model will perform better than chance (33.3%) in
classifying each emotion class of input data. The model accuracy was tested
with novel images. Accuracy was summarized in a percentage report, comparative
plot, and confusion matrix. Results of this study supported the hypothesis as
the model had 75% accuracy over 10,000 images (data), highlighting the
possibility of AIs that accurately analyze human emotions and the prospect of
viable Emotional AIs.
- Abstract(参考訳): 感情人工知能は現在、AIの最も期待されている開発の一つだ。
成功すれば、これらのAIは、人間と機械を区別する主要な要因である知覚を持つ、最も複雑で知的な非人間的な実体の1つに分類される。
AIを「感情的」と分類するには、人間と通常対話できない能力がないため、他者と共感し、感情を分類することができるべきである。
本研究では,CNNモデルがヒトの表情(陽性,中性,陰性)を認識・分類する能力について検討した。
この研究のために作られたcnnモデルはpythonでプログラムされ、chicago face databaseから事前処理されたデータでトレーニングされる。
モデルは、その能力をさらに調査するために、より少ない複雑さで意図的に設計されている。
我々は、入力データの各感情クラスを分類する際に、モデルが偶然(33.3%)より優れていると仮定した。
モデル精度を新しい画像で検証した。
精度は、パーセンテージレポート、比較プロット、および混乱マトリクスにまとめられた。
このモデルは1万画像(データ)以上で75%の精度を有しており、人間の感情を正確に分析するaisの可能性と、生存可能な感情aiの可能性を強調している。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Improved Emotional Alignment of AI and Humans: Human Ratings of Emotions Expressed by Stable Diffusion v1, DALL-E 2, and DALL-E 3 [10.76478480925475]
生成AIシステムは、テキストや画像を通じて感情を表現する能力がますます高まっている。
生成的AIによって表現される感情と人間の知覚のアライメントを測定する。
我々は、アライメントが使用するAIモデルと感情そのものに大きく依存していることを示します。
論文 参考訳(メタデータ) (2024-05-28T18:26:57Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Artificial Empathy Classification: A Survey of Deep Learning Techniques,
Datasets, and Evaluation Scales [0.0]
本稿では,これまでに収集および使用されてきたデータセットとともに,共感の計測と評価のための既存の作業について検討し,評価することを目的とする。
我々のゴールは、その性能を比較することで、AE領域における最先端の手法の活用を強調し、促進することである。
論文 参考訳(メタデータ) (2023-09-04T16:02:59Z) - Socratis: Are large multimodal models emotionally aware? [63.912414283486555]
既存の感情予測ベンチマークでは、様々な理由で画像やテキストが人間にもたらす感情の多様性を考慮していない。
社会反応ベンチマークであるソクラティス (Socratis) を提案し, それぞれのイメージ・キャプション(IC) ペアに複数の感情とそれらを感じる理由をアノテートする。
我々は、ICペアが与えられた感情を感じる理由を生成するために、最先端のマルチモーダルな大規模言語モデルの能力をベンチマークする。
論文 参考訳(メタデータ) (2023-08-31T13:59:35Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Towards Inclusive HRI: Using Sim2Real to Address Underrepresentation in
Emotion Expression Recognition [5.819149317261972]
我々は、より透明で包括的な方法で人間を知覚できるシステムを構築することを目指している。
我々は、Sim2Realアプローチを使い、3Dシミュレーションされた人間のモデルスイートを使用します。
4536個のサンプルを含む合成データセットを用いて、小さな動的感情表現データセットを増強することにより、精度15%の改善を実現した。
論文 参考訳(メタデータ) (2022-08-15T23:37:13Z) - HICEM: A High-Coverage Emotion Model for Artificial Emotional
Intelligence [9.153146173929935]
次世代の人工知能(AEI)は、より深く、より有意義な人間と機械の相互作用に対するユーザの欲求に対処するために、中心的な段階を採っている。
心理学における歴史的焦点である感情の理論とは異なり、感情モデルは記述的な道具である。
この研究は、社会ロボティクス、人間と機械の相互作用、メンタルヘルスケア、計算心理学に幅広い影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-15T15:21:30Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。