論文の概要: GINet: Graph Interaction Network for Scene Parsing
- arxiv url: http://arxiv.org/abs/2009.06160v1
- Date: Mon, 14 Sep 2020 02:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:26:21.516765
- Title: GINet: Graph Interaction Network for Scene Parsing
- Title(参考訳): GINet:シーン解析のためのグラフインタラクションネットワーク
- Authors: Tianyi Wu, Yu Lu, Yu Zhu, Chuang Zhang, Ming Wu, Zhanyu Ma, Guodong
Guo
- Abstract要約: 画像領域に対する文脈推論を促進するために,グラフインタラクションユニット(GIユニット)とセマンティックコンテキストロス(SC-loss)を提案する。
提案されたGINetは、Pascal-ContextやCOCO Stuffなど、一般的なベンチマークにおける最先端のアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 58.394591509215005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, context reasoning using image regions beyond local convolution has
shown great potential for scene parsing. In this work, we explore how to
incorporate the linguistic knowledge to promote context reasoning over image
regions by proposing a Graph Interaction unit (GI unit) and a Semantic Context
Loss (SC-loss). The GI unit is capable of enhancing feature representations of
convolution networks over high-level semantics and learning the semantic
coherency adaptively to each sample. Specifically, the dataset-based linguistic
knowledge is first incorporated in the GI unit to promote context reasoning
over the visual graph, then the evolved representations of the visual graph are
mapped to each local representation to enhance the discriminated capability for
scene parsing. GI unit is further improved by the SC-loss to enhance the
semantic representations over the exemplar-based semantic graph. We perform
full ablation studies to demonstrate the effectiveness of each component in our
approach. Particularly, the proposed GINet outperforms the state-of-the-art
approaches on the popular benchmarks, including Pascal-Context and COCO Stuff.
- Abstract(参考訳): 近年,局所畳み込み以外の画像領域を用いた文脈推論がシーン解析に大きな可能性を示している。
本研究では,画像領域上の文脈推論を促進するために,グラフインタラクションユニット(giユニット)と意味的文脈損失(sc-loss)を提案することにより,言語知識を組み込む方法について検討する。
GIユニットは、高レベルの意味論よりも畳み込みネットワークの特徴表現を高め、各サンプルに適応的にセマンティックコヒーレンシーを学習することができる。
具体的には、データセットベースの言語知識をまずgi単位に組み込んで、ビジュアルグラフ上のコンテキスト推論を促進し、その後、進化したビジュアルグラフの表現を各ローカル表現にマッピングし、シーン解析の識別能力を高める。
GIユニットはSC-lossによりさらに改善され、exemplar-based semantic graph上のセマンティック表現が強化される。
アプローチにおける各コンポーネントの有効性を示すための完全なアブレーション研究を行う。
特に、提案されたGINetは、Pascal-ContextやCOCO Stuffなど、一般的なベンチマークにおける最先端のアプローチよりも優れている。
関連論文リスト
- Improving vision-language alignment with graph spiking hybrid Networks [6.707524980629404]
本稿では,細粒度のセマンティックな特徴を生成するために,パノプティックセマンティック・セマンティック・セマンティクスの活用を必要とする包括的ビジュアルセマンティクス表現モジュールを提案する。
視覚的セマンティック情報を符号化するために,SNNとGATの相補的な利点を統合したグラフスパイキングハイブリッドネットワーク(GSHN)を提案する。
論文 参考訳(メタデータ) (2025-01-31T11:55:17Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - Visual Semantic Parsing: From Images to Abstract Meaning Representation [20.60579156219413]
自然言語処理の分野で広く使われている意味表現である抽象的意味表現(AMR)を活用することを提案する。
我々の視覚的AMRグラフは、視覚入力から外挿された高レベルな意味概念に焦点をあてて、言語的により理解されている。
本研究は,シーン理解の改善に向けた今後の重要な研究方向を示唆するものである。
論文 参考訳(メタデータ) (2022-10-26T17:06:42Z) - Consensus Graph Representation Learning for Better Grounded Image
Captioning [48.208119537050166]
本稿では,接地画像キャプションのためのConsensus Rraph Representation Learning framework(CGRL)を提案する。
Flickr30k Entitiesデータセットにおける対象幻覚(-9% CHAIRi)の顕著な減少とともに,本モデルの有効性を検証した。
論文 参考訳(メタデータ) (2021-12-02T04:17:01Z) - Exploring Explicit and Implicit Visual Relationships for Image
Captioning [11.82805641934772]
本稿では,画像キャプションのための領域レベルの表現を豊かにするために,明示的かつ暗黙的な視覚関係を探索する。
具体的には、オブジェクトペア上にセマンティックグラフを構築し、ゲートグラフ畳み込みネットワーク(Gated GCN)を利用して、近隣住民の情報を選択的に集約する。
暗黙的に、我々は変圧器から領域ベースの双方向エンコーダ表現を介して検出されたオブジェクト間のグローバルな相互作用を描画する。
論文 参考訳(メタデータ) (2021-05-06T01:47:51Z) - Disentangled Motif-aware Graph Learning for Phrase Grounding [48.64279161780489]
画像中のフレーズ接地のための新しいグラフ学習フレームワークを提案する。
モチーフを認識した文脈情報を表現に組み込むために,不連続グラフネットワークを考案する。
私たちのモデルはFlickr30K EntitiesとReferIt Gameベンチマークで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-13T08:20:07Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Learning Physical Graph Representations from Visual Scenes [56.7938395379406]
物理シーングラフ(PSG)はシーンを階層的なグラフとして表現し、ノードは異なるスケールのオブジェクト部品に直感的に対応し、部品間の物理的接続にエッジを持つ。
PSGNetは、低レベルの画像情報と高レベルの画像情報を組み合わせたリカレントフィードバック接続、空間的に均一な特徴マップをオブジェクト中心のグラフ構造に変換するグラフプーリングとベクトル化操作を含む、標準的なCNNを拡張している。
我々は,PSGNetがシーンセグメンテーションタスクにおいて,他の自己教師付きシーン表現アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:10:26Z) - Improving Image Captioning with Better Use of Captions [65.39641077768488]
本稿では,画像表現とキャプション生成の両方を強化するために,キャプションで利用可能なセマンティクスをよりよく探求するための新しい画像キャプションアーキテクチャを提案する。
我々のモデルはまず,弱教師付きマルチインスタンス学習を用いて,有益な帰納バイアスをもたらすキャプション誘導型視覚関係グラフを構築した。
生成期間中、このモデルは、単語とオブジェクト/述語タグのシーケンスを共同で予測するために、マルチタスク学習を用いた視覚関係をさらに取り入れる。
論文 参考訳(メタデータ) (2020-06-21T14:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。