論文の概要: Revealing Covert Attention by Analyzing Human and Reinforcement Learning Agent Gameplay
- arxiv url: http://arxiv.org/abs/2504.11118v1
- Date: Tue, 15 Apr 2025 12:07:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:15.323234
- Title: Revealing Covert Attention by Analyzing Human and Reinforcement Learning Agent Gameplay
- Title(参考訳): 人間と強化学習エージェントのゲームプレイによる隠蔽意識の探索
- Authors: Henrik Krauss, Takehisa Yairi,
- Abstract要約: 本研究では,ゲームプレイデータのみを用いて,人間の隠れ注意パターンを明らかにする手法を提案する。
本研究では,アタリ環境における人間とRLエージェントのゲームプレイからアテンションマップを生成するCTRアテンションネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.2302001830524133
- License:
- Abstract: This study introduces a novel method for revealing human covert attention patterns using gameplay data alone, utilizing offline attention techniques from reinforcement learning (RL). We propose the contextualized, task-relevant (CTR) attention network, which generates attention maps from both human and RL agent gameplay in Atari environments. These maps are sparse yet retain the necessary information for the current player's decision making. We compare the CTR-derived attention maps with a temporally integrated overt attention (TIOA) model based on eye-tracking data, serving as a point of comparison and discussion. Visual inspection reveals distinct attention patterns: human CTR maps focus on the player and rather nearby opponents, occasionally shifting between stronger focus and broader views - sometimes even attending to empty space ahead. In contrast, agent maps maintain a consistent broad focus on most objects, including distant ones and the player. Quantitative analysis further demonstrates that human CTR maps align more closely with TIOA than agent maps do. Our findings indicate that the CTR attention network can effectively reveal human covert attention patterns from gameplay alone, without the need for additional data like brain activity recordings. This work contributes to understanding human-agent attention differences and enables the development of RL agents augmented with human covert attention.
- Abstract(参考訳): 本研究では,強化学習(RL)によるオフライン注意手法を用いて,ゲームプレイデータだけで人間の隠れ注意パターンを明らかにする手法を提案する。
本研究では,アタリ環境における人間とRLエージェントのゲームプレイからアテンションマップを生成するCTRアテンションネットワークを提案する。
これらの地図はスパースであるが、現在のプレイヤーの決定に必要な情報を保持する。
我々は,CTR由来の注意マップと視線追跡データに基づく時間統合注意(TIOA)モデルを比較し,比較と議論のポイントとして機能する。
人間のCTRマップはプレイヤーとそれに近い相手に焦点を合わせ、時にはより強い焦点とより広い視点にシフトする。
対照的にエージェントマップは、遠くのオブジェクトやプレイヤーを含むほとんどのオブジェクトに一貫した焦点を維持している。
定量的分析により、人間のCTRマップはエージェントマップよりもIOAとより密に一致していることが示された。
以上の結果から,脳活動記録などの追加データを必要とせず,CTRアテンションネットワークはゲームプレイ単独で人間の隠蔽アテンションパターンを効果的に明らかにできることが示唆された。
この研究は、人間-エージェントの注意差の理解に寄与し、人間の隠れ注意を付加したRLエージェントの開発を可能にする。
関連論文リスト
- Seeing Eye to AI: Comparing Human Gaze and Model Attention in Video Memorability [21.44002657362493]
我々は,ビデオの暗記性予測において,時間的注意をTASo(State-of-the-art)のパフォーマンスに合わせることなく特徴を解析できる,シンプルなCNN+Transformerアーキテクチャを採用する。
本研究は,ヒトが記憶課題を遂行する視線追跡研究を通じて,人間の定着に対するモデル注意度を比較した。
論文 参考訳(メタデータ) (2023-11-26T05:14:06Z) - Gaze-based Attention Recognition for Human-Robot Collaboration [0.0]
本稿では,人間オペレータとコボットが等しく協力してギアボックスを組み立てる組立シナリオを提案する。
最初のステップとして、人間のオペレータが注意を払っているワークスペース内の領域を認識します。
本稿では,注目度認識モデルを開発するための新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-30T11:55:38Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Do Transformer Models Show Similar Attention Patterns to Task-Specific
Human Gaze? [0.0]
最先端のNLPモデルにおける自己注意機能は、人間の注意と相関することが多い。
本研究では、大規模事前学習言語モデルにおける自己注意が、人間の注意の古典的認知モデルとしての課題読解における人間の眼球固定パターンの予測であるかどうかを検討する。
論文 参考訳(メタデータ) (2022-04-25T08:23:13Z) - Your "Attention" Deserves Attention: A Self-Diversified Multi-Channel
Attention for Facial Action Analysis [12.544285462327839]
本稿では,ニューラルアテンションマップの表現力と集中力を高めるためのコンパクトモデルを提案する。
提案手法は,AU検出のための2つのベンチマークデータベース (BP4D, DISFA) と顔認識のための4つのデータベース (CK+, MMI, BU-3DFE, BP4D+) で評価した。
最先端の手法に比べて優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-03-23T17:29:51Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Gaze Perception in Humans and CNN-Based Model [66.89451296340809]
cnn(convolutional neural network)ベースの視線モデルと,実世界の映像における注意の軌跡を人間がどのように推定するかを比較した。
モデルと比較すると,注目点の人間推定はシーンの文脈に強く影響していることが示される。
論文 参考訳(メタデータ) (2021-04-17T04:52:46Z) - GTA: Global Temporal Attention for Video Action Understanding [51.476605514802806]
空間的注意を軸にグローバルな時間的注目を行うグローバルテンポラルアテンション(AGT:Global Temporal Attention)を分離的に紹介します。
2Dおよび3Dネットワーク上でのテストは、我々のアプローチが時間的モデリングを一貫して強化し、3つのビデオアクション認識データセットに対して最先端のパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2020-12-15T18:58:21Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Deep Attention Aware Feature Learning for Person Re-Identification [22.107332426681072]
本稿では,人物のReIDネットワークに注意学習を付加目的として組み込むことを提案する。
我々は2つの典型的なネットワーク(TriNetとBag of Tricks)でその性能をテストし、5つの広く使われているデータセットで大幅な性能改善を観測した。
論文 参考訳(メタデータ) (2020-03-01T16:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。