論文の概要: Attention Flow: End-to-End Joint Attention Estimation
- arxiv url: http://arxiv.org/abs/2001.03960v1
- Date: Sun, 12 Jan 2020 16:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 04:48:19.581189
- Title: Attention Flow: End-to-End Joint Attention Estimation
- Title(参考訳): アテンションフロー: エンドツーエンドの関節アテンション推定
- Authors: \"Omer S\"umer, Peter Gerjets, Ulrich Trautwein, Enkelejda Kasneci
- Abstract要約: 本稿では,ソーシャルシーンビデオにおける共同注意の理解の問題に対処する。
共同注意とは、対象物や関心領域に関する2人以上の個人の共通の視線行動である。
本研究では,サリエンシ強化型注目マップと2つの新しい畳み込み型注意機構を用いて,エンド・ツー・エンド方式で共同注意を学習する。
- 参考スコア(独自算出の注目度): 9.01219858596044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of understanding joint attention in
third-person social scene videos. Joint attention is the shared gaze behaviour
of two or more individuals on an object or an area of interest and has a wide
range of applications such as human-computer interaction, educational
assessment, treatment of patients with attention disorders, and many more. Our
method, Attention Flow, learns joint attention in an end-to-end fashion by
using saliency-augmented attention maps and two novel convolutional attention
mechanisms that determine to select relevant features and improve joint
attention localization. We compare the effect of saliency maps and attention
mechanisms and report quantitative and qualitative results on the detection and
localization of joint attention in the VideoCoAtt dataset, which contains
complex social scenes.
- Abstract(参考訳): 本稿では,ソーシャルシーンビデオにおける共同注意の理解の問題に対処する。
共同注意は、対象物または関心領域における2人以上の個人の共通の視線行動であり、人間とコンピュータの相互作用、教育評価、注意障害のある患者の治療など、幅広い応用がある。
本手法は,有意な特徴を選定し,共同注意の局所化を向上する2つの新しい畳み込み注意機構を用いて,エンドツーエンドで共同注意を学習する。
複雑な社会シーンを含むビデオCoAttデータセットにおいて,サリエンシマップとアテンション機構の効果を比較し,定量的および定性的な結果が共同注意の検出と局所化に与える影響を報告する。
関連論文リスト
- Elliptical Attention [1.7597562616011944]
Pairwise dot-product self-attentionは、言語やビジョンにおける様々なアプリケーションで最先端のパフォーマンスを実現するトランスフォーマーの成功の鍵である。
本稿では,マハラノビス距離計を用いて注意重みの計算を行い,その基礎となる特徴空間を文脈的関連性の高い方向に拡張することを提案する。
論文 参考訳(メタデータ) (2024-06-19T18:38:11Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - HAN: Higher-order Attention Network for Spoken Language Understanding [31.326152465734747]
本稿では,従来の注目ブロックをバイリニアアテンションブロックに置き換えることを提案する。
我々は,高次の注目から得られる有効性を探るため,幅広い分析を行う。
論文 参考訳(メタデータ) (2021-08-26T17:13:08Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - More Than Just Attention: Learning Cross-Modal Attentions with
Contrastive Constraints [63.08768589044052]
本稿では,コントラストコンテンツリソーシング (CCR) とコントラストコンテンツスワッピング (CCS) の制約を提案する。
CCRとCCSの制約は、明示的な注意アノテーションを必要とせず、対照的な学習方法で注意モデルのトレーニングを監督する。
Flickr30kとMS-COCOのデータセットの実験は、これらの注意制約を2つの最先端の注意ベースモデルに統合することで、モデルのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2021-05-20T08:48:10Z) - Joint Attention for Multi-Agent Coordination and Social Learning [108.31232213078597]
共同注意がマルチエージェント協調とソーシャルラーニングを改善するメカニズムとして有用であることを示す。
共同の注意は、複数の環境にまたがる競争集中型批評家のベースラインよりも高いパフォーマンスをもたらす。
これらの結果から,共同注意は多エージェント学習に有用な帰納的バイアスである可能性が示唆された。
論文 参考訳(メタデータ) (2021-04-15T20:14:19Z) - Cost-effective Interactive Attention Learning with Neural Attention
Processes [79.8115563067513]
対話型注意学習(Interactive Attention Learning, IAL)と呼ばれる対話型学習フレームワークを提案する。
IALは、人間のアノテーションが不足しているため、過度に適合する傾向がある。
我々は,サンプル効率のよい注意機構と,コスト効率のよいインスタンスと機能の再ランクアルゴリズムを提案することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2020-06-09T17:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。