論文の概要: Learning Correlation Structures for Vision Transformers
- arxiv url: http://arxiv.org/abs/2404.03924v1
- Date: Fri, 5 Apr 2024 07:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 16:44:14.970644
- Title: Learning Correlation Structures for Vision Transformers
- Title(参考訳): 視覚変換器の相関構造学習
- Authors: Manjin Kim, Paul Hongsuck Seo, Cordelia Schmid, Minsu Cho,
- Abstract要約: 構造自己注意(StructSA)と呼ばれる新しい注意機構を導入する。
我々は、畳み込みによるキー-クエリ相関の時空間構造を認識して注意マップを生成する。
これは、シーンレイアウト、オブジェクトの動き、オブジェクト間の関係など、画像やビデオのリッチな構造パターンを効果的に活用する。
- 参考スコア(独自算出の注目度): 93.22434535223587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new attention mechanism, dubbed structural self-attention (StructSA), that leverages rich correlation patterns naturally emerging in key-query interactions of attention. StructSA generates attention maps by recognizing space-time structures of key-query correlations via convolution and uses them to dynamically aggregate local contexts of value features. This effectively leverages rich structural patterns in images and videos such as scene layouts, object motion, and inter-object relations. Using StructSA as a main building block, we develop the structural vision transformer (StructViT) and evaluate its effectiveness on both image and video classification tasks, achieving state-of-the-art results on ImageNet-1K, Kinetics-400, Something-Something V1 & V2, Diving-48, and FineGym.
- Abstract(参考訳): 注目のキー-クエリ相互作用に自然に現れるリッチな相関パターンを活用する構造的自己注意(StructSA)と呼ばれる新しいアテンションメカニズムを導入する。
StructSAは、畳み込みによってキー-クエリ相関の時空間構造を認識してアテンションマップを生成し、それらを用いて、値特徴の局所的コンテキストを動的に集約する。
これは、シーンレイアウト、オブジェクトの動き、オブジェクト間の関係など、画像やビデオのリッチな構造パターンを効果的に活用する。
本研究では,StructSAをメインビルディングブロックとして用い,画像と映像の分類作業における構造的視覚変換器(StructViT)を開発し,ImageNet-1K, Kinetics-400, Something-Something V1 & V2, Diving-48, FineGymの最先端結果を実現する。
関連論文リスト
- SIM-Trans: Structure Information Modeling Transformer for Fine-grained
Visual Categorization [59.732036564862796]
本稿では,オブジェクト構造情報を変換器に組み込んだSIM-Trans(Structure Information Modeling Transformer)を提案する。
提案した2つのモジュールは軽量化されており、任意のトランスフォーマーネットワークにプラグインでき、エンドツーエンドで容易に訓練できる。
実験と解析により,提案したSIM-Transが細粒度視覚分類ベンチマークの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-08-31T03:00:07Z) - Structured Attention Composition for Temporal Action Localization [99.66510088698051]
マルチモーダル特徴学習の観点から時間的行動ローカライゼーションについて検討する。
従来の注目とは異なり、提案されたモジュールはフレームの注意とモダリティの注意を独立して推測しない。
提案した構造化された注目合成モジュールは、既存のアクションローカライゼーションフレームワークにプラグイン・アンド・プレイモジュールとしてデプロイすることができる。
論文 参考訳(メタデータ) (2022-05-20T04:32:09Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z) - Structure-Regularized Attention for Deformable Object Representation [17.120035855774344]
文脈依存のキャプチャは、ディープニューラルネットワークの表現力を改善するのに有用であることが証明されている。
自己注意や非局所操作といったグローバルコンテキストのモデリングに焦点をあてた近年のアプローチは、要素間の制約のないペアワイズ相互作用を可能にすることで、この目標を達成する。
本稿では,データに固有の構造的依存関係をモデル化することにより,コンテキスト利用の恩恵を受けることができる変形可能なオブジェクトの学習表現について考察する。
論文 参考訳(メタデータ) (2021-06-12T03:10:17Z) - Adaptive Interaction Modeling via Graph Operations Search [109.45125932109454]
相互作用モデリングのための適応型構造を学習するために,構造設計のプロセスを自動化する。
アーキテクチャ探索フレームワークが適応的な相互作用モデリング構造を構築することを実験的に実証した。
本手法は最先端技術との競合性能を実現する。
論文 参考訳(メタデータ) (2020-05-05T13:01:09Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。