論文の概要: GCCN: Global Context Convolutional Network
- arxiv url: http://arxiv.org/abs/2110.11664v1
- Date: Fri, 22 Oct 2021 08:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 14:28:42.269902
- Title: GCCN: Global Context Convolutional Network
- Title(参考訳): GCCN:グローバルコンテキスト畳み込みネットワーク
- Authors: Ali Hamdi, Flora Salim, and Du Yong Kim
- Abstract要約: 視覚認識のためのグローバルコンテキスト畳み込みネットワーク(GCCN)を提案する。
GCCNは、画像パッチ全体にわたるコンテキスト情報を表すグローバル機能を計算する。
画像分類のためのベースモデルとしてGCCNを実装した。
- 参考スコア(独自算出の注目度): 0.2752817022620644
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose Global Context Convolutional Network (GCCN) for
visual recognition. GCCN computes global features representing contextual
information across image patches. These global contextual features are defined
as local maxima pixels with high visual sharpness in each patch. These features
are then concatenated and utilised to augment the convolutional features. The
learnt feature vector is normalised using the global context features using
Frobenius norm. This straightforward approach achieves high accuracy in
compassion to the state-of-the-art methods with 94.6% and 95.41% on CIFAR-10
and STL-10 datasets, respectively. To explore potential impact of GCCN on other
visual representation tasks, we implemented GCCN as a based model to few-shot
image classification. We learn metric distances between the augmented feature
vectors and their prototypes representations, similar to Prototypical and
Matching Networks. GCCN outperforms state-of-the-art few-shot learning methods
achieving 99.9%, 84.8% and 80.74% on Omniglot, MiniImageNet and CUB-200,
respectively. GCCN has significantly improved on the accuracy of
state-of-the-art prototypical and matching networks by up to 30% in different
few-shot learning scenarios.
- Abstract(参考訳): 本稿では,視覚認識のためのグローバルコンテキスト畳み込みネットワーク(GCCN)を提案する。
GCCNは、画像パッチ全体にわたるコンテキスト情報を表すグローバル機能を計算する。
これらのグローバルなコンテキスト特徴は、各パッチに高い視覚的シャープ性を持つ局所的な最大画素として定義される。
これらの機能は統合され、畳み込み機能を拡張するために使用される。
学習特徴ベクトルはフロベニウスノルムを用いて大域的文脈特徴を用いて正規化される。
この単純なアプローチは、CIFAR-10データセットとSTL-10データセットでそれぞれ94.6%と95.41%の最先端の手法に対する思いやりの精度を達成する。
GCCNが他の視覚的表現タスクに与える影響を探るため,GCCNを画像分類のためのベースモデルとして実装した。
我々は,拡張特徴ベクトルとそのプロトタイプ表現の間の距離を,プロトタイプやマッチングネットワークと同様に学習する。
GCCNは99.9%、84.8%、80.74%をOmniglot、MiniImageNet、CUB-200で達成している。
GCCNは、最先端のプロトタイプおよびマッチングネットワークの精度を、異なる数ショットの学習シナリオで最大30%改善した。
関連論文リスト
- Siamese Transformer Networks for Few-shot Image Classification [9.55588609556447]
人間は視覚分類タスクにおいて顕著な熟練度を示し、最小限の例で新しい画像を正確に認識し分類する。
既存の少数の画像分類手法は、大域的特徴と局所的特徴の両方を強調し、両者を統合することを考える研究はほとんどない。
我々は,シームズ変圧器ネットワーク(STN)に基づく新しいアプローチを提案する。
我々の戦略は, 複雑な特徴適応モジュールの必要性を回避し, 画像分類におけるグローバルな特徴と局所的な特徴の可能性を効果的に活用する。
論文 参考訳(メタデータ) (2024-07-16T14:27:23Z) - Image as Set of Points [60.30495338399321]
コンテキストクラスタ(CoC)は、イメージを非組織的なポイントの集合と見なし、単純化されたクラスタリングアルゴリズムによって特徴を抽出する。
われわれのCoCは畳み込みと無注意で、空間的相互作用のためのクラスタリングアルゴリズムにのみ依存している。
論文 参考訳(メタデータ) (2023-03-02T18:56:39Z) - Signature-Graph Networks [35.817256955261094]
Signature-Graph Neural Networks (SGN)は、畳み込みニューラルネットワーク(CNN)の特徴表現を強化する潜在グローバル構造を学習する
SGNは、CNN特徴写像に基づいて、各画像に対して独自の無向グラフを構築する。
SGNは、画像分類精度99.65%のASIRRAで、99.91%のMNISTで、98.55%のFashion-MNISTで、96.18%のCIFAR-10で、84.71%のCIFAR-100で、94.36%のSTL10で、95.86%のSVHNデータセットで、既存のグラフ畳み込みネットワーク、生成敵ネットワーク、および自動エンコーダの手法より優れている。
論文 参考訳(メタデータ) (2021-10-22T01:44:14Z) - Conformer: Local Features Coupling Global Representations for Visual
Recognition [72.9550481476101]
本稿では,畳み込み操作と自己アテンション機構を利用した表現学習のためのハイブリッドネットワーク構造,conformerを提案する。
実験では、コンフォーマーが同等のパラメータ複雑性の下で視覚変換器(DeiT-B)を2.3%上回ることが示されている。
論文 参考訳(メタデータ) (2021-05-09T10:00:03Z) - Attention-Driven Dynamic Graph Convolutional Network for Multi-Label
Image Recognition [53.17837649440601]
本稿では,各画像の特定のグラフを動的に生成するアテンション駆動型動的グラフ畳み込みネットワーク(ADD-GCN)を提案する。
パブリックなマルチラベルベンチマーク実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-12-05T10:10:12Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Inter-Image Communication for Weakly Supervised Localization [77.2171924626778]
弱教師付きローカライゼーションは、画像レベルの監督のみを使用して対象対象領域を見つけることを目的としている。
我々は,より正確な物体位置を学習するために,異なる物体間の画素レベルの類似性を活用することを提案する。
ILSVRC検証セット上でトップ1のローカライズ誤差率45.17%を達成する。
論文 参考訳(メタデータ) (2020-08-12T04:14:11Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。