論文の概要: Matching Representations of Explainable Artificial Intelligence and Eye
Gaze for Human-Machine Interaction
- arxiv url: http://arxiv.org/abs/2102.00179v1
- Date: Sat, 30 Jan 2021 07:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:20:25.788331
- Title: Matching Representations of Explainable Artificial Intelligence and Eye
Gaze for Human-Machine Interaction
- Title(参考訳): ヒューマン・マシンインタラクションのための説明可能な人工知能と視線とのマッチング表現
- Authors: Tiffany Hwu, Mia Levy, Steven Skorheim, David Huber
- Abstract要約: タスクベース刺激の迅速な非言語コミュニケーションは、人間と機械のコラボレーションにおける課題である。
本研究では、運転行動予測のためのニューラルネットワークの視覚的ヒートマップ説明と、運転者の視線熱マップとの相関について検討する。
- 参考スコア(独自算出の注目度): 0.7742297876120561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rapid non-verbal communication of task-based stimuli is a challenge in
human-machine teaming, particularly in closed-loop interactions such as
driving. To achieve this, we must understand the representations of information
for both the human and machine, and determine a basis for bridging these
representations. Techniques of explainable artificial intelligence (XAI) such
as layer-wise relevance propagation (LRP) provide visual heatmap explanations
for high-dimensional machine learning techniques such as deep neural networks.
On the side of human cognition, visual attention is driven by the bottom-up and
top-down processing of sensory input related to the current task. Since both
XAI and human cognition should focus on task-related stimuli, there may be
overlaps between their representations of visual attention, potentially
providing a means of nonverbal communication between the human and machine. In
this work, we examine the correlations between LRP heatmap explanations of a
neural network trained to predict driving behavior and eye gaze heatmaps of
human drivers. The analysis is used to determine the feasibility of using such
a technique for enhancing driving performance. We find that LRP heatmaps show
increasing levels of similarity with eye gaze according to the task specificity
of the neural network. We then propose how these findings may assist humans by
visually directing attention towards relevant areas. To our knowledge, our work
provides the first known analysis of LRP and eye gaze for driving tasks.
- Abstract(参考訳): タスクベース刺激の迅速な非言語コミュニケーションは、人間と機械のチーム、特に運転のようなクローズドループ相互作用における課題である。
これを達成するためには、人間と機械の両方の情報表現を理解し、これらの表現を橋渡しする基礎を定める必要がある。
階層的関連性伝播(LRP)のような説明可能な人工知能(XAI)の技術は、ディープニューラルネットワークなどの高次元機械学習技術の視覚的ヒートマップ説明を提供します。
人間の認知の側では、視覚注意は、現在のタスクに関連する感覚入力のボトムアップおよびトップダウン処理によって駆動される。
XAIと人間の認知は共にタスク関連の刺激に焦点を合わせなければならないため、視覚的注意の表現には重複があり、人間と機械の間の非言語コミュニケーションの手段を提供する可能性がある。
本研究では、運転行動予測のためのニューラルネットワークのLRPヒートマップ説明と、運転者の視線熱マップとの相関について検討する。
この分析により、運転性能向上のための手法が実現可能かどうかを判定する。
LRPのヒートマップは、ニューラルネットワークのタスク特異性に応じて目視との類似度が高まることを示している。
そこで我々は、これらの発見が、視覚的に関連する領域に注意を向けることで人間を助ける方法について提案する。
我々の知る限り、我々の研究は、LRPの既知の分析と、運転タスクの視線を初めて提供する。
関連論文リスト
- Unidirectional brain-computer interface: Artificial neural network
encoding natural images to fMRI response in the visual cortex [12.1427193917406]
本稿では,人間の脳を模倣する人工ニューラルネットワークVISIONを提案する。
VISIONは、人間の血行動態の反応をfMRIボクセル値として、最先端の性能を超える精度で45%の精度で予測することに成功した。
論文 参考訳(メタデータ) (2023-09-26T15:38:26Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - A Symbolic Representation of Human Posture for Interpretable Learning
and Reasoning [2.678461526933908]
我々は,人間の姿勢を,より親しみやすい言葉で表現する質的空間推論手法を導入する。
本稿では,2つのレベルでのシンボル表現の導出と,その予備的利用について述べる。
論文 参考訳(メタデータ) (2022-10-17T12:22:13Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Human brain activity for machine attention [8.673635963837532]
我々は脳波(EEG)という神経科学データを初めて活用し、人間の脳の言語処理について神経の注意モデルに知らせる。
我々は、理論上動機付けられた収穫と無作為な森林分枝を組み合わせることで、機械の注意を監督する脳波の特徴を見つける手法を考案した。
これらの特徴を関係分類の注意を規則化するために応用し、脳波が強い基準線よりも情報的であることを示す。
論文 参考訳(メタデータ) (2020-06-09T08:39:07Z) - Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network [1.52292571922932]
我々は深層畳み込みニューラルネットワーク(CNN)を訓練し、画像から手当を認識し、その基盤となる特徴や手当の寸法を知る。
我々は、この表現分析を、人間がどのように環境を知覚し、どのように相互作用するかを、よりフォーマルに説明するための第一歩であると考えている。
論文 参考訳(メタデータ) (2020-02-20T19:04:40Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。