論文の概要: GiT: Graph Interactive Transformer for Vehicle Re-identification
- arxiv url: http://arxiv.org/abs/2107.05475v1
- Date: Mon, 12 Jul 2021 14:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 15:57:16.354351
- Title: GiT: Graph Interactive Transformer for Vehicle Re-identification
- Title(参考訳): GiT: 車両再識別のためのグラフインタラクティブトランス
- Authors: Fei Shen, Yi Xie, Jianqing Zhu, Xiaobin Zhu, and Huanqiang Zeng
- Abstract要約: 適切な車両再識別法は、ロバストなグローバル特徴と差別的なローカル特徴の両方を考慮すべきである。
車両再識別のためのグラフインタラクティブトランス (GiT) を提案する。
グラフとトランスフォーマーを組み合わせて車両を再識別する作業は、これが初めてです。
- 参考スコア(独自算出の注目度): 19.273488608428302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers are more and more popular in computer vision, which treat an
image as a sequence of patches and learn robust global features from the
sequence. However, a suitable vehicle re-identification method should consider
both robust global features and discriminative local features. In this paper,
we propose a graph interactive transformer (GiT) for vehicle re-identification.
On the whole, we stack multiple GiT blocks to build a competitive vehicle
re-identification model, in where each GiT block employs a novel local
correlation graph (LCG) module to extract discriminative local features within
patches and uses a transformer layer to extract robust global features among
patches. In detail, in the current GiT block, the LCG module learns local
features from local and global features resulting from the LCG module and
transformer layer of the previous GiT block. Similarly, the transformer layer
learns global features from the global features generated by the transformer
layer of the previous GiT block and the new local features outputted via the
LCG module of the current GiT block. Therefore, LCG modules and transformer
layers are in a coupled status, bringing effective cooperation between local
and global features. This is the first work to combine graphs and transformers
for vehicle re-identification to the best of our knowledge. Extensive
experiments on three large-scale vehicle re-identification datasets demonstrate
that our method is superior to state-of-the-art approaches. The code will be
available soon.
- Abstract(参考訳): トランスフォーマーは、イメージをパッチのシーケンスとして扱い、シーケンスから堅牢なグローバル機能を学ぶコンピュータビジョンにおいて、ますます人気がある。
しかし、適切な車両再識別方法は、ロバストなグローバル特徴と差別的なローカル特徴の両方を考慮するべきである。
本稿では,車両再識別のためのグラフインタラクティブトランス (GiT) を提案する。
全体として、複数のGiTブロックを積み重ねて競合車両再識別モデルを構築し、各GiTブロックは、パッチ内の識別的局所的特徴を抽出するために、新しいローカル相関グラフ(LCG)モジュールを使用して、パッチ間の堅牢なグローバルな特徴を抽出する。
詳細は、現在の GiT ブロックにおいて、LCG モジュールは、以前の GiT ブロックの LCG モジュールと変換器層から生じる局所的およびグローバル的特徴から局所的特徴を学習する。
同様に、トランス層は、前のGiTブロックのトランス層によって生成されたグローバル特徴と、現在のGiTブロックのLCGモジュールを介して出力される新しいローカル特徴からグローバル特徴を学習する。
したがって、lcgモジュールとトランスフォーマーレイヤは結合状態にあり、ローカル機能とグローバル機能の効果的な連携をもたらす。
グラフとトランスフォーマーを組み合わせて車両を再識別する作業は、これが初めてです。
3つの大規模車両再識別データセットに関する広範囲な実験により,本手法が最先端手法よりも優れていることが示された。
コードはもうすぐ入手できる。
関連論文リスト
- Hybrid Focal and Full-Range Attention Based Graph Transformers [0.0]
本稿では,Focal と Full-Range Graph Transformer (FFGT) という,純粋に注目に基づくアーキテクチャを提案する。
FFGTは、従来のフルレンジアテンションとエゴネットへのKホップアテンションを組み合わせることで、グローバル情報とローカル情報の両方を集約する。
提案手法は,各種オープンデータセット上での既存のグラフ変換器の性能を向上させる。
論文 参考訳(メタデータ) (2023-11-08T12:53:07Z) - Feature Shrinkage Pyramid for Camouflaged Object Detection with
Transformers [34.42710399235461]
視覚変換器は、最近、擬似的オブジェクト検出において、強いグローバルなコンテキストモデリング能力を示した。
ローカリティモデリングの効率の低下とデコーダの機能集約の不足という2つの大きな制限に悩まされている。
本研究では, 局所性向上した隣接する変圧器の特徴を階層的に復号化することを目的とした, 変圧器をベースとしたFSPNet(Feature Shrinkage Pyramid Network)を提案する。
論文 参考訳(メタデータ) (2023-03-26T20:50:58Z) - DLGSANet: Lightweight Dynamic Local and Global Self-Attention Networks
for Image Super-Resolution [83.47467223117361]
画像の超解像化に有効な軽量な動的局所・大域自己アテンションネットワーク(DLGSANet)を提案する。
トランスフォーマーのネットワーク設計により,ローカル特徴を効率的に抽出するシンプルなマルチヘッド動的自己アテンション(MHDLSA)モジュールを開発した。
この問題を解決するために,最も有用な類似値を選択するために,スパースグローバル自己アテンション(SparseGSA)モジュールを開発した。
論文 参考訳(メタデータ) (2023-01-05T12:06:47Z) - 3DGTN: 3D Dual-Attention GLocal Transformer Network for Point Cloud
Classification and Segmentation [21.054928631088575]
本稿では,Global Local(GLocal) Transformer Network(3DGTN)と呼ばれる,新たなポイントクラウド表現学習ネットワークを提案する。
提案するフレームワークは,分類データセットとセグメンテーションデータセットの両方で評価される。
論文 参考訳(メタデータ) (2022-09-21T14:34:21Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Transformer Scale Gate for Semantic Segmentation [53.27673119360868]
Transformer Scale Gate (TSG) は、視覚変換器の自己および横断的な注意をスケール選択に活用する。
Pascal ContextとADE20Kデータセットに関する我々の実験は、我々の特徴選択戦略が一貫した利益を達成することを示す。
論文 参考訳(メタデータ) (2022-05-14T13:11:39Z) - High-Performance Transformer Tracking [74.07751002861802]
本稿では,シームズ様特徴抽出バックボーンをベースとしたTransformer Tracking(TransT)手法,設計した注意に基づく融合機構,分類と回帰ヘッドを提案する。
実験の結果,TransT法とTransT-M法は7つの一般的なデータセットに対して有望な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-25T09:33:29Z) - LCTR: On Awakening the Local Continuity of Transformer for Weakly
Supervised Object Localization [38.376238216214524]
弱教師付きオブジェクトローカライゼーション(WSOL)は、画像レベルのラベルだけでオブジェクトローカライザを学習することを目的としている。
本稿では,グローバルな特徴の局所認識能力を高めることを目的とした,LCTRと呼ばれるトランスフォーマー上に構築された新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-10T01:48:40Z) - TrTr: Visual Tracking with Transformer [29.415900191169587]
トランスフォーマーエンコーダデコーダアーキテクチャと呼ばれる強力な注意メカニズムに基づく新しいトラッカーネットワークを提案する。
形状非依存アンカーに基づくターゲットのローカライズを行うトランスの出力を用いて,分類と回帰ヘッドを設計する。
本手法は最先端のアルゴリズムに好適に作用する。
論文 参考訳(メタデータ) (2021-05-09T02:32:28Z) - LocalViT: Bringing Locality to Vision Transformers [132.42018183859483]
線、エッジ、形状、さらにはオブジェクトなどの構造に関連するため、画像には局所性が不可欠です。
フィードフォワードネットワークに奥行き畳み込みを導入することで,視覚トランスフォーメーションに局所性を加える。
この一見シンプルなソリューションは、フィードフォワードネットワークと反転残留ブロックの比較に触発されます。
論文 参考訳(メタデータ) (2021-04-12T17:59:22Z) - TransGAN: Two Transformers Can Make One Strong GAN [111.07699201175919]
我々は、純粋なトランスフォーマーベースのアーキテクチャのみを用いて、完全に畳み込みのないGANテキストを構築できる最初のパイロット研究を行う。
バニラGANアーキテクチャはtextbfTransGANと呼ばれ、メモリフレンドリーなトランスフォーマーベースのジェネレータで構成されています。
当社の最高のアーキテクチャは、コンボリューションバックボーンに基づく最新のGANと比較して非常に競争力のあるパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-14T05:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。