論文の概要: STAR-GNN: Spatial-Temporal Video Representation for Content-based
Retrieval
- arxiv url: http://arxiv.org/abs/2208.06966v1
- Date: Mon, 15 Aug 2022 01:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:56:09.025590
- Title: STAR-GNN: Spatial-Temporal Video Representation for Content-based
Retrieval
- Title(参考訳): STAR-GNN:コンテンツ検索のための時空間ビデオ表現
- Authors: Guoping Zhao, Bingqing Zhang, Mingyu Zhang, Yaxian Li, Jiajun Liu, and
Ji-Rong Wen
- Abstract要約: 本稿ではSTAR-GNNというビデオ特徴表現学習フレームワークを提案する。
プラグイン可能なグラフニューラルネットワークコンポーネントをマルチスケールの格子特徴グラフに適用する。
本稿では,STAR-GNNがビデオフレームシーケンスに動的アテンション機構を効果的に実装していることを示す。
- 参考スコア(独自算出の注目度): 39.50179338831056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a video feature representation learning framework called STAR-GNN,
which applies a pluggable graph neural network component on a multi-scale
lattice feature graph. The essence of STAR-GNN is to exploit both the temporal
dynamics and spatial contents as well as visual connections between regions at
different scales in the frames. It models a video with a lattice feature graph
in which the nodes represent regions of different granularity, with weighted
edges that represent the spatial and temporal links. The contextual nodes are
aggregated simultaneously by graph neural networks with parameters trained with
retrieval triplet loss. In the experiments, we show that STAR-GNN effectively
implements a dynamic attention mechanism on video frame sequences, resulting in
the emphasis for dynamic and semantically rich content in the video, and is
robust to noise and redundancies. Empirical results show that STAR-GNN achieves
state-of-the-art performance for Content-Based Video Retrieval.
- Abstract(参考訳): マルチスケール格子特徴グラフにプラグイン可能なグラフニューラルネットワークコンポーネントを適用するSTAR-GNNというビデオ特徴表現学習フレームワークを提案する。
STAR-GNNの本質は、フレーム内の異なるスケールの領域間の視覚的接続と同様に、時間的ダイナミクスと空間的内容の両方を活用することである。
これは、各ノードが異なる粒度の領域を表し、重み付けされたエッジが空間的および時間的リンクを表す格子的特徴グラフを持つビデオをモデル化する。
コンテキストノードはグラフニューラルネットワークによって同時に集約され、検索三重項損失を訓練する。
実験では,STAR-GNNがビデオフレームシーケンスに動的アテンション機構を効果的に実装し,映像中の動的で意味的にリッチなコンテンツに重点を置いており,ノイズや冗長性に対して堅牢であることを示す。
実験結果から,STAR-GNNはコンテンツベースビデオ検索の最先端性能を実現することが示された。
関連論文リスト
- Structure Enhanced Graph Neural Networks for Link Prediction [6.872826041648584]
リンク予測のための構造拡張グラフニューラルネットワーク(SEG)を提案する。
SEGは、ターゲットノードの周囲の位相情報を通常のGNNモデルに組み込む。
OGBリンク予測データセットの実験は、SEGが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-01-14T03:49:30Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - SEA: Graph Shell Attention in Graph Neural Networks [8.565134944225491]
グラフニューラルネットワーク(GNN)の一般的な問題は、オーバー・スムーシング(over-smoothing)として知られている。
本研究では、ルーティングを実装することでGNNアーキテクチャを緩和し、特にノードの表現を専用の専門家にルーティングする。
この手順をグラフシェル注意(SEA)と呼び、専門家がトランスフォーマーを動機づけた方法で異なるサブグラフを処理する。
論文 参考訳(メタデータ) (2021-10-20T17:32:08Z) - Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks [37.79964911718766]
グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
本稿では,GNNのコア操作に対して,極めて単純かつ無作為な修正を施した中央ノード置換変分関数を提案する。
モデルの具体的な性能向上は、モデルがより少ないパラメータを使用しながら、有意なマージンで過去の最先端結果を上回った場合に観察される。
論文 参考訳(メタデータ) (2021-09-20T05:04:26Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z) - Zero-Shot Video Object Segmentation via Attentive Graph Neural Networks [150.5425122989146]
本研究は、ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい注意グラフニューラルネットワーク(AGNN)を提案する。
AGNNは、フレームをノードとして効率的に表現し、任意のフレームペア間の関係をエッジとして表現するために、完全に連結されたグラフを構築している。
3つのビデオセグメンテーションデータセットの実験結果は、AGNNがそれぞれのケースに新しい最先端を設定していることを示している。
論文 参考訳(メタデータ) (2020-01-19T10:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。