論文の概要: Dynamic Graph Message Passing Networks for Visual Recognition
- arxiv url: http://arxiv.org/abs/2209.09760v1
- Date: Tue, 20 Sep 2022 14:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 17:50:59.278673
- Title: Dynamic Graph Message Passing Networks for Visual Recognition
- Title(参考訳): 視覚認識のための動的グラフメッセージパッシングネットワーク
- Authors: Li Zhang, Mohan Chen, Anurag Arnab, Xiangyang Xue, Philip H.S. Torr
- Abstract要約: 長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
- 参考スコア(独自算出の注目度): 112.49513303433606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modelling long-range dependencies is critical for scene understanding tasks
in computer vision. Although convolution neural networks (CNNs) have excelled
in many vision tasks, they are still limited in capturing long-range structured
relationships as they typically consist of layers of local kernels. A
fully-connected graph, such as the self-attention operation in Transformers, is
beneficial for such modelling, however, its computational overhead is
prohibitive. In this paper, we propose a dynamic graph message passing network,
that significantly reduces the computational complexity compared to related
works modelling a fully-connected graph. This is achieved by adaptively
sampling nodes in the graph, conditioned on the input, for message passing.
Based on the sampled nodes, we dynamically predict node-dependent filter
weights and the affinity matrix for propagating information between them. This
formulation allows us to design a self-attention module, and more importantly a
new Transformer-based backbone network, that we use for both image
classification pretraining, and for addressing various downstream tasks (object
detection, instance and semantic segmentation). Using this model, we show
significant improvements with respect to strong, state-of-the-art baselines on
four different tasks. Our approach also outperforms fully-connected graphs
while using substantially fewer floating-point operations and parameters. Code
and models will be made publicly available at
https://github.com/fudan-zvg/DGMN2
- Abstract(参考訳): 長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
畳み込みニューラルネットワーク(cnns)は多くのビジョンタスクで優れているが、通常は局所カーネルの層で構成された長距離構造的関係を捉えることは制限されている。
トランスフォーマーの自己注意操作のような完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,完全連結グラフをモデル化する関連作業と比較して計算量を大幅に削減する動的グラフメッセージパッシングネットワークを提案する。
これは、メッセージパッシングのために入力に条件付きでグラフ内のノードを適応的にサンプリングすることで達成される。
サンプルノードに基づき,ノード依存フィルタ重みとそれらの間の情報伝達のための親和性行列を動的に予測する。
この定式化により、自己アテンションモジュールを設計することができ、さらに重要なのは、画像分類事前トレーニングと、さまざまな下流タスク(オブジェクト検出、インスタンス、セマンティックセグメンテーション)に使用するトランスフォーマーベースのバックボーンネットワークである。
このモデルを用いて,4つのタスクに対して,強靭で最先端のベースラインに対する大幅な改善を示す。
また,浮動小数点演算やパラメータをかなり少なくしながら,完全連結グラフよりも優れた手法を提案する。
コードとモデルはhttps://github.com/fudan-zvg/DGMN2で公開される。
関連論文リスト
- Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Representing Long-Range Context for Graph Neural Networks with Global
Attention [37.212747564546156]
本稿では,トランスフォーマーに基づく自己認識を用いて,長距離ペア関係の学習を提案する。
提案手法はGraphTransと呼ばれ,標準のGNNモジュールに代えて置換不変なTransformerモジュールを適用している。
その結果,グラフ構造を持たない純粋学習に基づくアプローチは,グラフ上の高レベルな長距離関係を学習するのに適している可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-21T18:16:21Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Variational models for signal processing with Graph Neural Networks [3.5939555573102853]
本稿では,ニューラルネットワークを用いた点雲の信号処理について述べる。
本研究では,このようなグラフニューラルネットワークの変分モデルを用いて,教師なし学習のためのグラフ上の信号を処理する方法を検討する。
論文 参考訳(メタデータ) (2021-03-30T13:31:11Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。