論文の概要: Hierarchical Representations for Spatio-Temporal Visual Attention
Modeling and Understanding
- arxiv url: http://arxiv.org/abs/2308.05189v1
- Date: Wed, 9 Aug 2023 18:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 14:40:14.320970
- Title: Hierarchical Representations for Spatio-Temporal Visual Attention
Modeling and Understanding
- Title(参考訳): 時空間的視覚的注意モデリングと理解のための階層表現
- Authors: Miguel-\'Angel Fern\'andez-Torres
- Abstract要約: 本稿では,文脈・時間的視覚的注意のモデル化と理解のための生成確率モデルを提案する。
第2に、まずトップダウンの視覚的注意を推定し、最終的に時間領域における注意を喚起する視覚的注意力モデリングのためのディープネットワークアーキテクチャを開発する。
- 参考スコア(独自算出の注目度): 2.2355582621321823
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This PhD. Thesis concerns the study and development of hierarchical
representations for spatio-temporal visual attention modeling and understanding
in video sequences. More specifically, we propose two computational models for
visual attention. First, we present a generative probabilistic model for
context-aware visual attention modeling and understanding. Secondly, we develop
a deep network architecture for visual attention modeling, which first
estimates top-down spatio-temporal visual attention, and ultimately serves for
modeling attention in the temporal domain.
- Abstract(参考訳): この博士号。
論文は,映像列における時空間的視覚的注意モデリングと理解のための階層表現の研究と開発に関するものである。
より具体的には,視覚注意のための2つの計算モデルを提案する。
まず,コンテキスト認識型視覚注意モデリングと理解のための生成確率モデルを提案する。
第2に,まずトップダウン時空間の視覚的注意を推定し,最終的に時間領域における注意をモデル化する深層ネットワークアーキテクチャを開発する。
関連論文リスト
- Spatio-Temporal Graphical Counterfactuals: An Overview [11.616701619068804]
反現実は、人工知能がデータから知識を学習する上で、重要かつ困難なトピックである。
本研究の目的は,思考を比較し,異なる対実モデル,理論,アプローチについて議論することである。
論文 参考訳(メタデータ) (2024-07-02T01:34:13Z) - Spatiotemporal Observer Design for Predictive Learning of
High-Dimensional Data [6.214987339902511]
オブザーバ理論を指導したStemporalと呼ばれるディープラーニングアーキテクチャは、オブザーバの高次元データを予測学習するために設計されている。
このフレームワークは、一段階と多段階の両方のシナリオで正確な予測を行う時間的ダイナミクスをキャプチャすることができる。
論文 参考訳(メタデータ) (2024-02-23T12:28:31Z) - Revisiting the Temporal Modeling in Spatio-Temporal Predictive Learning
under A Unified View [73.73667848619343]
UTEP(Unified S-Temporal Predictive Learning)は,マイクロテンポラリスケールとマクロテンポラリスケールを統合した再帰的および再帰的フリーな手法を再構築する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2023-10-09T16:17:42Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Top-down inference in an early visual cortex inspired hierarchical
Variational Autoencoder [0.0]
我々は変分オートエンコーダの進歩を利用して、自然画像に基づいて訓練された疎い符号化階層型VAEを用いて、初期視覚野を調査する。
一次および二次視覚皮質に見られるものと類似した表現は、軽度の誘導バイアスの下で自然に現れる。
生成モデルを用いた2つの計算のシグネチャに対して,ニューロサイエンスに着想を得た認識モデルの選択が重要であることを示す。
論文 参考訳(メタデータ) (2022-06-01T12:21:58Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。