論文の概要: Gaze Perception in Humans and CNN-Based Model
- arxiv url: http://arxiv.org/abs/2104.08447v1
- Date: Sat, 17 Apr 2021 04:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-24 05:20:16.280940
- Title: Gaze Perception in Humans and CNN-Based Model
- Title(参考訳): ヒトの視線知覚とCNNモデル
- Authors: Nicole X. Han, William Yang Wang, Miguel P. Eckstein
- Abstract要約: cnn(convolutional neural network)ベースの視線モデルと,実世界の映像における注意の軌跡を人間がどのように推定するかを比較した。
モデルと比較すると,注目点の人間推定はシーンの文脈に強く影響していることが示される。
- 参考スコア(独自算出の注目度): 66.89451296340809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Making accurate inferences about other individuals' locus of attention is
essential for human social interactions and will be important for AI to
effectively interact with humans. In this study, we compare how a CNN
(convolutional neural network) based model of gaze and humans infer the locus
of attention in images of real-world scenes with a number of individuals
looking at a common location. We show that compared to the model, humans'
estimates of the locus of attention are more influenced by the context of the
scene, such as the presence of the attended target and the number of
individuals in the image.
- Abstract(参考訳): 他人の注意の軌跡を正確に推測することは、人間の社会的相互作用に不可欠であり、AIが人間と効果的に相互作用することが重要である。
本研究では,cnn (convolutional neural network) に基づく視線と人間の視線のモデルを用いて,実世界のシーン画像における注意の軌跡を,複数の個人が共通の場所を見ている場合と比較する。
本モデルと比較すると,被写体の存在や画像中の個人数など,人間の注目点推定はシーンの文脈に影響されていることがわかった。
関連論文リスト
- Generating Human-Centric Visual Cues for Human-Object Interaction
Detection via Large Vision-Language Models [59.611697856666304]
人-物対検出(Human-object Interaction:HOI)は、人-物対を検出し、その相互作用を予測することを目的とする。
我々はVLMを用いた3つのプロンプトを提案し、人間の複数の視点から画像内で人間中心の視覚的手がかりを生成する。
我々は,マルチトワーアーキテクチャを用いたトランスフォーマーベースのマルチモーダル融合モジュールを開発し,視覚的キュー機能をインスタンスと対話デコーダに統合する。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Eye vs. AI: Human Gaze and Model Attention in Video Memorability [22.718191366938278]
本稿では,ビデオの暗記性予測において,SoTAのパフォーマンスと一致する自然主義的時間的注意を伴うトランスフォーマーモデルを提案する。
小型眼球追跡実験により収集した人間の視線固定密度マップに対するモデル注意力の比較を行った。
我々は,本モデルが人間の時間的注意パターンを模倣し,初期フレームに重きを置くことを観察した。
論文 参考訳(メタデータ) (2023-11-26T05:14:06Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Do humans and Convolutional Neural Networks attend to similar areas
during scene classification: Effects of task and image type [0.0]
本研究では,人間とCNNの類似性を調節するために,人間の注意マップを抽出するタスクが画像特性とどのように相互作用するかを検討した。
分類対象のタイプは, 特異な, 健全なオブジェクト, オブジェクト配置からなる屋内シーン, あるいは, カテゴリーを定義していないランドスケープのいずれかを用いて変化した。
対象物に対して、人間の手動選択は、CNNと最もよく似た地図を作成し、特定の眼球運動タスクは、ほとんど影響を与えなかった。
論文 参考訳(メタデータ) (2023-07-25T09:02:29Z) - Human alignment of neural network representations [22.671101285994013]
ニューラルネットワークで学習した表現と行動応答から推定される人間の心的表現のアライメントに影響を与える要因について検討する。
モデルスケールとアーキテクチャは基本的に人間の行動応答に影響を与えないことがわかった。
食物や動物などの人間の概念はニューラルネットワークによってよく表現されているのに対し、ロイヤルやスポーツ関連の物体はそうではない。
論文 参考訳(メタデータ) (2022-11-02T15:23:16Z) - Do Transformer Models Show Similar Attention Patterns to Task-Specific
Human Gaze? [0.0]
最先端のNLPモデルにおける自己注意機能は、人間の注意と相関することが多い。
本研究では、大規模事前学習言語モデルにおける自己注意が、人間の注意の古典的認知モデルとしての課題読解における人間の眼球固定パターンの予測であるかどうかを検討する。
論文 参考訳(メタデータ) (2022-04-25T08:23:13Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。