論文の概要: MemX: An Attention-Aware Smart Eyewear System for Personalized Moment
Auto-capture
- arxiv url: http://arxiv.org/abs/2105.00916v1
- Date: Mon, 3 May 2021 14:54:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:48:19.960331
- Title: MemX: An Attention-Aware Smart Eyewear System for Personalized Moment
Auto-capture
- Title(参考訳): MemX:パーソナライズされたモーメントオートキャプチャーのための注意型スマートアイウェアシステム
- Authors: Yuhu Chang, Yingying Zhao, Mingzhi Dong, Yujiang Wang, Yutian Lu, Qin
Lv, Robert P. Dick, Tun Lu, Ning Gu, Li Shang
- Abstract要約: 人間の視覚的注意追跡と重度の視覚的コンテンツ分析を統合した新しい時間的視覚的注意ネットワークを提案する。
MemXは人間の視覚的注意をその場で捉え、視覚的コンテンツを分析し、コンパクトなビデオスニペットの形で個人的関心の瞬間を記録する。
本研究では,システムエネルギー効率を維持しつつ,アイトラッキングアローン法よりも注意トラッキング精度が有意に向上することを示す。
- 参考スコア(独自算出の注目度): 12.603153730515404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents MemX: a biologically-inspired attention-aware eyewear
system developed with the goal of pursuing the long-awaited vision of a
personalized visual Memex. MemX captures human visual attention on the fly,
analyzes the salient visual content, and records moments of personal interest
in the form of compact video snippets. Accurate attentive scene detection and
analysis on resource-constrained platforms is challenging because these tasks
are computation and energy intensive. We propose a new temporal visual
attention network that unifies human visual attention tracking and salient
visual content analysis. Attention tracking focuses computation-intensive video
analysis on salient regions, while video analysis makes human attention
detection and tracking more accurate. Using the YouTube-VIS dataset and 30
participants, we experimentally show that MemX significantly improves the
attention tracking accuracy over the eye-tracking-alone method, while
maintaining high system energy efficiency. We have also conducted 11 in-field
pilot studies across a range of daily usage scenarios, which demonstrate the
feasibility and potential benefits of MemX.
- Abstract(参考訳): 本研究は,パーソナライズされた視覚memexの長期ビジョンを追求する目的で開発された,生物学的にインスパイアされた注意対応眼鏡システムmemxを提案する。
MemXは人間の視覚的注意をその場で捉え、視覚的コンテンツを分析し、コンパクトなビデオスニペットの形で個人的関心の瞬間を記録する。
資源制約されたプラットフォーム上での正確なシーン検出と解析は、これらのタスクが計算とエネルギー集約性のため困難である。
本稿では,人間の視覚注意追跡と高度視覚コンテンツ分析を統合する新しい時間的視覚注意ネットワークを提案する。
アテンショントラッキングは計算集約的なビデオ分析に注目し、ビデオ分析は人間のアテンション検出とトラッキングをより正確にする。
youtube-visデータセットと30名の参加者を用いて,システムエネルギー効率を維持しつつ,視線追跡アローン法よりも注意トラッキング精度が有意に向上することを示した。
我々はまた,MemXの有効性と潜在的なメリットを実証する,様々な日常的利用シナリオを対象に,11の現地試験を実施した。
関連論文リスト
- Seeing Eye to AI: Comparing Human Gaze and Model Attention in Video Memorability [21.44002657362493]
我々は,ビデオの暗記性予測において,時間的注意をTASo(State-of-the-art)のパフォーマンスに合わせることなく特徴を解析できる,シンプルなCNN+Transformerアーキテクチャを採用する。
本研究は,ヒトが記憶課題を遂行する視線追跡研究を通じて,人間の定着に対するモデル注意度を比較した。
論文 参考訳(メタデータ) (2023-11-26T05:14:06Z) - Decoding Attention from Gaze: A Benchmark Dataset and End-to-End Models [6.642042615005632]
視線追跡は、生態学的に有効な環境において、人間の認知に関する豊富な行動データを提供する可能性がある。
本稿では,コンピュータビジョンツールを用いて,時間とともに参加者の過度な視覚的注意の軌跡を評価する作業である「アテンション・デコーディング」について検討する。
論文 参考訳(メタデータ) (2022-11-20T12:24:57Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Utilising Visual Attention Cues for Vehicle Detection and Tracking [13.2351348789193]
物体の検出と追跡に視覚的注意(透明性)を用いる可能性を探究する。
本稿では,物体を同時に検出し,対象性と主観性マップを生成し,計算力を節約するニューラルネットワークを提案する。
実験はKITTIとDETRACのデータセットを用いて行われた。
論文 参考訳(メタデータ) (2020-07-31T23:00:13Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Detecting Attended Visual Targets in Video [25.64146711657225]
実世界の視線行動の複雑な動的パターンを含む新しいアノテーション付きデータセットVideoAttentionTargetを導入する。
実験の結果,ビデオの動的注意を効果的に推測できることがわかった。
ウェアラブルカメラやアイトラッカーを使わずに臨床関連視線行動を自動的に分類する最初の結果を得た。
論文 参考訳(メタデータ) (2020-03-05T09:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。