論文の概要: Gramformer: Learning Crowd Counting via Graph-Modulated Transformer
- arxiv url: http://arxiv.org/abs/2401.03870v1
- Date: Mon, 8 Jan 2024 13:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 16:29:06.969447
- Title: Gramformer: Learning Crowd Counting via Graph-Modulated Transformer
- Title(参考訳): gramformer: グラフ変調トランスフォーマーによる群衆カウントの学習
- Authors: Hui Lin and Zhiheng Ma and Xiaopeng Hong and Qinnan Shangguan and Deyu
Meng
- Abstract要約: Gramformerはグラフ変調変換器で、それぞれ注意点と入力ノードの特徴を調整してネットワークを強化する。
ノードの集中位置や重要性を発見するために,特徴に基づく符号化を提案する。
提案手法の競争性を検証した4つの挑戦的群集カウントデータセットの実験を行った。
- 参考スコア(独自算出の注目度): 68.26599222077466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer has been popular in recent crowd counting work since it breaks
the limited receptive field of traditional CNNs. However, since crowd images
always contain a large number of similar patches, the self-attention mechanism
in Transformer tends to find a homogenized solution where the attention maps of
almost all patches are identical. In this paper, we address this problem by
proposing Gramformer: a graph-modulated transformer to enhance the network by
adjusting the attention and input node features respectively on the basis of
two different types of graphs. Firstly, an attention graph is proposed to
diverse attention maps to attend to complementary information. The graph is
building upon the dissimilarities between patches, modulating the attention in
an anti-similarity fashion. Secondly, a feature-based centrality encoding is
proposed to discover the centrality positions or importance of nodes. We encode
them with a proposed centrality indices scheme to modulate the node features
and similarity relationships. Extensive experiments on four challenging crowd
counting datasets have validated the competitiveness of the proposed method.
Code is available at {https://github.com/LoraLinH/Gramformer}.
- Abstract(参考訳): トランスフォーマーは、伝統的なCNNの限られた受容領域を破って以来、近年の観客数で人気がある。
しかし, 群集画像には常に類似したパッチが多数含まれているため, トランスフォーマーの自己注意機構は, ほぼすべてのパッチの注目マップが同一である均質化解を見つける傾向にある。
本稿では,2種類のグラフに基づいて,注目点と入力ノードの特徴をそれぞれ調整してネットワークを強化するグラフ変調変換器であるGramformerを提案する。
まず、相補的な情報に対応するために、多様な注目マップに注目グラフを提案する。
グラフはパッチ間の相似性を基盤とし、反相似性の方法で注意を変調している。
次に,ノードの中心的な位置や重要度を検出するために,特徴量に基づく中心性符号化を提案する。
我々は、ノードの特徴と類似性の関係を変調する中心性指標スキームでそれらを符号化する。
提案手法の競争性を検証した4つの挑戦的群集カウントデータセットの大規模な実験を行った。
コードは、https://github.com/LoraLinH/Gramformer}で入手できる。
関連論文リスト
- Graph as Point Set [31.448841287258116]
本稿では,相互接続ノードを独立点の集合に変換するグラフ・ツー・セット変換法を提案する。
これにより、セットエンコーダを使用してグラフから学習することが可能になり、グラフニューラルネットワークの設計空間が大幅に拡張される。
提案手法の有効性を示すために,グラフから変換された点集合を入力として受け入れる変換器アーキテクチャであるPoint Set Transformer (PST)を導入する。
論文 参考訳(メタデータ) (2024-05-05T02:29:41Z) - GvT: A Graph-based Vision Transformer with Talking-Heads Utilizing Sparsity, Trained from Scratch on Small Datasets [1.1586742546971471]
グラフ畳み込みプロジェクションとグラフプーリングを利用するグラフベースビジョントランス (GvT) を提案する。
GvTは、大規模なデータセットを事前トレーニングすることなく、深層畳み込みネットワークに匹敵する、あるいは優れた結果をもたらす。
論文 参考訳(メタデータ) (2024-04-07T11:48:07Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Graph Reasoning Transformer for Image Parsing [67.76633142645284]
本稿では,画像解析のためのグラフ推論変換器(GReaT)を提案する。
従来の変圧器と比較して、GReaTは高い相互作用効率とより目的のある相互作用パターンを有する。
その結果、GReaTは、最先端のトランスフォーマーベースラインにわずかに計算オーバーヘッドを伴って、一貫した性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-09-20T08:21:37Z) - Gransformer: Transformer-based Graph Generation [14.161975556325796]
Gransformerは、グラフを生成するためのTransformerに基づくアルゴリズムである。
我々は、与えられたグラフの構造情報を利用するためにTransformerエンコーダを変更する。
また、ノードペア間のグラフベースの親しみ度尺度も導入する。
論文 参考訳(メタデータ) (2022-03-25T14:05:12Z) - A Generalization of Transformer Networks to Graphs [5.736353542430439]
標準モデルと比較して4つの新しい特性を持つグラフトランスを紹介します。
アーキテクチャはエッジ特徴表現に拡張され、化学(結合型)やリンク予測(知識グラフにおけるエンタリティ関係)といったタスクに重要なものとなる。
論文 参考訳(メタデータ) (2020-12-17T16:11:47Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - AEGCN: An Autoencoder-Constrained Graph Convolutional Network [5.023274927781062]
本稿では,オートエンコーダ制約付きグラフ畳み込みネットワークと呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このモデルのコアはグラフ上で直接動作する畳み込みネットワークであり、隠れた層はオートエンコーダによって制約される。
オートエンコーダの制約を追加することで,グラフ畳み込みネットワークの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-07-03T16:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。