論文の概要: Comparing Facial Expression Recognition in Humans and Machines: Using
CAM, GradCAM, and Extremal Perturbation
- arxiv url: http://arxiv.org/abs/2110.04481v1
- Date: Sat, 9 Oct 2021 06:54:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 02:48:53.174487
- Title: Comparing Facial Expression Recognition in Humans and Machines: Using
CAM, GradCAM, and Extremal Perturbation
- Title(参考訳): ヒトと機械における表情認識の比較-cam, gradcam, 四肢摂動を用いて-
- Authors: Serin Park, Christian Wallraven
- Abstract要約: 表情認識(FER)は、心理学と機械学習の両方において重要な研究を惹きつけるトピックである。
本研究では,2段階の強制選択課題における人間と機械の認識性能と注意パターンを比較した。
- 参考スコア(独自算出の注目度): 5.025654873456756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial expression recognition (FER) is a topic attracting significant
research in both psychology and machine learning with a wide range of
applications. Despite a wealth of research on human FER and considerable
progress in computational FER made possible by deep neural networks (DNNs),
comparatively less work has been done on comparing the degree to which DNNs may
be comparable to human performance. In this work, we compared the recognition
performance and attention patterns of humans and machines during a
two-alternative forced-choice FER task. Human attention was here gathered
through click data that progressively uncovered a face, whereas model attention
was obtained using three different popular techniques from explainable AI: CAM,
GradCAM and Extremal Perturbation. In both cases, performance was gathered as
percent correct. For this task, we found that humans outperformed machines
quite significantly. In terms of attention patterns, we found that Extremal
Perturbation had the best overall fit with the human attention map during the
task.
- Abstract(参考訳): 表情認識(fer)は、心理学と機械学習の両方において、幅広い応用で重要な研究を惹きつけるトピックである。
人間のFERに関する豊富な研究と、ディープニューラルネットワーク(DNN)によって可能となった計算FERのかなりの進歩にもかかわらず、DNNが人間のパフォーマンスに匹敵する程度に比較する研究は比較的少ない。
本研究では,2段階の強制選択課題における人間と機械の認識性能と注意パターンを比較した。
人間の注意は、顔を徐々に発見するクリックデータを通じて収集され、モデル注意は、説明可能なAIであるCAM、GradCAM、Extremal Perturbationの3つの異なるテクニックを使用して得られた。
どちらの場合も、パフォーマンスは正解率として収集された。
このために、人間は機械よりもかなり優れていた。
注意パターンの観点からみると、極端摂動はタスク中に人間の注意マップに最も適していることがわかりました。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Do humans and machines have the same eyes? Human-machine perceptual
differences on image classification [8.474744196892722]
訓練されたコンピュータビジョンモデルは、トレーニングラベルから学んだ人間の振る舞いを模倣することにより、視覚課題を解決すると仮定される。
本研究はまず,2つの情報源からの誤りの統計的分布を定量化し,解析する。
我々は、人間や機械を単独で上回るポストホックな人間と機械のコラボレーションを実証的に実証する。
論文 参考訳(メタデータ) (2023-04-18T05:09:07Z) - Extreme Image Transformations Affect Humans and Machines Differently [0.0]
最近の人工ニューラルネットワーク(ANN)では、霊長類ニューラルネットと人間のパフォーマンスデータの側面をモデル化している。
神経生理学的な知見にインスパイアされた新しい画像変換のセットを導入し、物体認識タスクにおいて人間とANNを評価する。
機械は、特定の変換のために人間よりも優れた性能を示し、人間にとって容易な他者と同等の性能を発揮するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:12:53Z) - I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition [65.69256728493015]
本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:28:26Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Partial success in closing the gap between human and machine vision [30.78663978510427]
数年前、最初のCNNがImageNetで人間のパフォーマンスを上回った。
人間のビジョンとマシンビジョンのギャップを埋める作業は進んでいますか?
我々は、広範囲なアウト・オブ・ディストリビューション(OOD)データセット上で、人間のオブザーバをテストした。
論文 参考訳(メタデータ) (2021-06-14T13:23:35Z) - Gaze Perception in Humans and CNN-Based Model [66.89451296340809]
cnn(convolutional neural network)ベースの視線モデルと,実世界の映像における注意の軌跡を人間がどのように推定するかを比較した。
モデルと比較すると,注目点の人間推定はシーンの文脈に強く影響していることが示される。
論文 参考訳(メタデータ) (2021-04-17T04:52:46Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Dissonance Between Human and Machine Understanding [16.32018730049208]
本稿では,人間と機械の理解との不協和を解明し,定量化する大規模クラウドソーシング研究を行う。
私たちの発見は、人工知能の分野における長期的な目標は、人間のように学習し推論できる機械を作ることであると考え、人間と機械のコラボレーションに重要な意味を持つ。
論文 参考訳(メタデータ) (2021-01-18T21:45:35Z) - Human vs. supervised machine learning: Who learns patterns faster? [0.0]
本研究は,訓練データに制限がある場合に,人間と機械の学習性能がどう違うかを示す。
我々は、44人の人間と3つの異なる機械学習アルゴリズムがラベル付きトレーニングデータのパターンを識別し、発見したパターンに従ってインスタンスをラベル付けする実験を設計した。
論文 参考訳(メタデータ) (2020-11-30T13:39:26Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。