論文の概要: Toward Affective XAI: Facial Affect Analysis for Understanding
Explainable Human-AI Interactions
- arxiv url: http://arxiv.org/abs/2106.08761v1
- Date: Wed, 16 Jun 2021 13:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 01:08:24.263768
- Title: Toward Affective XAI: Facial Affect Analysis for Understanding
Explainable Human-AI Interactions
- Title(参考訳): 情緒的XAI: 説明可能な人間とAIの相互作用を理解するための顔の感情分析
- Authors: Luke Guerdan, Alex Raymond, and Hatice Gunes
- Abstract要約: この研究は、人々がXAIインターフェースと対話する際に、どの顔に影響を及ぼすかを特定することを目的としている。
また,顔の感情信号と参加者の説明的利用をリンクするためのマルチタスク機能埋め込みも開発した。
- 参考スコア(独自算出の注目度): 4.874780144224057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning approaches are increasingly used to augment human
decision-making, eXplainable Artificial Intelligence (XAI) research has
explored methods for communicating system behavior to humans. However, these
approaches often fail to account for the emotional responses of humans as they
interact with explanations. Facial affect analysis, which examines human facial
expressions of emotions, is one promising lens for understanding how users
engage with explanations. Therefore, in this work, we aim to (1) identify which
facial affect features are pronounced when people interact with XAI interfaces,
and (2) develop a multitask feature embedding for linking facial affect signals
with participants' use of explanations. Our analyses and results show that the
occurrence and values of facial AU1 and AU4, and Arousal are heightened when
participants fail to use explanations effectively. This suggests that facial
affect analysis should be incorporated into XAI to personalize explanations to
individuals' interaction styles and to adapt explanations based on the
difficulty of the task performed.
- Abstract(参考訳): eXplainable Artificial Intelligence(XAI)の研究は、人間の意思決定を強化するために機械学習のアプローチがますます使われるようになってきている。
しかし、これらのアプローチは、しばしば説明と相互作用する人間の感情的な反応を説明できない。
感情の表情を調べる顔認識は、ユーザーが説明にどう関与するかを理解するための有望なレンズである。
そこで本研究では,(1)人がXAIインタフェースと対話する際,どのような顔に影響を及ぼすのかを識別し,(2)参加者の説明を用いて顔に影響を及ぼす信号をリンクするためのマルチタスク特徴埋め込みを開発することを目的とする。
分析の結果,AU1,AU4,Arousalの出現と評価は,参加者が効果的に説明を使わなかった場合に高くなることが明らかとなった。
このことは、人物のインタラクションスタイルの説明をパーソナライズし、タスクの難易度に基づいて説明を適応するために、顔の感情分析をXAIに組み込むことを示唆している。
関連論文リスト
- Bridging Human Concepts and Computer Vision for Explainable Face Verification [2.9602845959184454]
本稿では,顔認証アルゴリズムの解釈可能性を高めるために,コンピュータと人間の視覚を組み合わせるアプローチを提案する。
特に、機械が人間の意味領域をどう知覚するかを理解するための人間の知覚過程にインスピレーションを受けています。
論文 参考訳(メタデータ) (2024-01-30T09:13:49Z) - I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition [65.69256728493015]
本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:28:26Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Introducing Representations of Facial Affect in Automated Multimodal
Deception Detection [18.16596562087374]
自動偽造検知システムは、社会の健康、正義、安全を高めることができる。
本稿では,顔認識における顔の感情の次元表現力の新たな解析法を提案する。
私たちは、現実世界の、高額な法廷状況で、真実または偽装的にコミュニケーションする人々のビデオデータセットを使用しました。
論文 参考訳(メタデータ) (2020-08-31T05:12:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。