論文の概要: Exploring Hierarchical Graph Representation for Large-Scale Zero-Shot
Image Classification
- arxiv url: http://arxiv.org/abs/2203.01386v1
- Date: Wed, 2 Mar 2022 20:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-05 11:55:52.855940
- Title: Exploring Hierarchical Graph Representation for Large-Scale Zero-Shot
Image Classification
- Title(参考訳): 大規模ゼロショット画像分類のための階層グラフ表現の探索
- Authors: Kai Yi, Xiaoqian Shen, Yunhao Gou, Mohamed Elhoseiny
- Abstract要約: 本稿では,HGR-Netと呼ばれる信頼度に基づく分類手法のための階層型グラフ表現フレームワークを提案する。
実験の結果,階層的概念知識を用いてHGR-Netがクラス継承関係を把握できることが確認された。
- 参考スコア(独自算出の注目度): 21.406839159387946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The main question we address in this paper is how to scale up visual
recognition of unseen classes, also known as zero-shot learning, to tens of
thousands of categories as in the ImageNet-21K benchmark. At this scale,
especially with many fine-grained categories included in ImageNet-21K, it is
critical to learn quality visual semantic representations that are
discriminative enough to recognize unseen classes and distinguish them from
seen ones. We propose a Hierarchical Graphical knowledge Representation
framework for the confidence-based classification method, dubbed as HGR-Net.
Our experimental results demonstrate that HGR-Net can grasp class inheritance
relations by utilizing hierarchical conceptual knowledge. Our method
significantly outperformed all existing techniques, boosting the performance 7%
compared to the runner-up approach on the ImageNet-21K benchmark. We show that
HGR-Net is learning-efficient in few-shot scenarios. We also analyzed our
method on smaller datasets like ImageNet-21K-P, 2-hops and 3-hops,
demonstrating its generalization ability. Our benchmark and code will be made
publicly available.
- Abstract(参考訳): 本稿では、ゼロショット学習(ゼロショット学習)として知られる未確認クラスの視覚的認識を、ImageNet-21Kベンチマークのように数万のカテゴリにスケールアップする方法について論じる。
このスケールでは、特にImageNet-21Kに含まれる細かなカテゴリでは、目に見えないクラスを識別し、目に見えないクラスと区別するのに十分な品質の視覚的意味表現を学習することが重要である。
hgr-net と呼ばれる信頼度に基づく分類法のための階層的グラフィカル知識表現フレームワークを提案する。
その結果,hgr-netは階層的概念知識を用いてクラス継承関係を把握できることがわかった。
提案手法は,ImageNet-21Kベンチマークのランナアップ手法と比較して,既存手法よりも性能が7%向上した。
本稿では,HGR-Netが学習効率が高いことを示す。
また,ImageNet-21K-P, 2-hops, 3-hopsなどの小さなデータセットを用いて解析を行い,その一般化能力を実証した。
私たちのベンチマークとコードは公開される予定だ。
関連論文リスト
- Cross-Level Multi-Instance Distillation for Self-Supervised Fine-Grained
Visual Categorization [41.86678318006878]
本稿では,粒度の細かいプレテキスト表現の課題を解決するために,クロスレベルマルチインスタンス蒸留(CMD)フレームワークを提案する。
私たちのキーとなる考え方は、複数のインスタンス学習による微細なプレテキスト表現の決定において、各イメージパッチの重要性を検討することです。
提案手法は,最新の手法を10.14%,既存の最先端の自己教師型学習手法を19.78%,トップ1精度とランク1検索基準の両方で上回っている。
論文 参考訳(メタデータ) (2024-01-16T22:22:09Z) - Grid Jigsaw Representation with CLIP: A New Perspective on Image
Clustering [37.15595383168132]
GJR(Grid Jigsaw Representation)と呼ばれる、画像クラスタリングのためのJigsawベースの戦略手法。
GJRモジュールは、さまざまな深層畳み込みネットワークに付加され、幅広いベンチマークデータセットで大幅に改善された。
実験の結果,ACC,NMI,ARIの3つの指標と超高速収束速度に対するクラスタリング作業の有効性が示された。
論文 参考訳(メタデータ) (2023-10-27T03:07:05Z) - Gramian Attention Heads are Strong yet Efficient Vision Learners [26.79263390835444]
複数のヘッダ分類器(e, classification head)を組み込むことで表現性を向上する新しいアーキテクチャ設計を提案する。
本手法では,資源オーバーヘッドを最小に抑えつつ,複数の軽量ヘッドを強化するために,一対の特徴的類似性を利用したアグリゲーションを用いる。
われわれのモデルは最終的に、ImageNet-1Kの精度の細かいトレードオフに関して、最先端のCNNやViTを上回ることになる。
論文 参考訳(メタデータ) (2023-10-25T09:08:58Z) - Graph Convolutional Networks based on Manifold Learning for
Semi-Supervised Image Classification [9.171175292808144]
半教師付き画像分類のためのGCNに基づく新しい手法であるManifold-GCNを提案する。
本論文の主な仮説は,グラフ構造をモデル化するための多様体学習を用いることで,GCN分類をさらに改善できるというものである。
全ての多様体学習アルゴリズムは完全に教師なしであり、ラベル付きデータの可用性が懸念されるシナリオでは特に有用である。
論文 参考訳(メタデータ) (2023-04-24T23:24:46Z) - Semantic Enhanced Knowledge Graph for Large-Scale Zero-Shot Learning [74.6485604326913]
我々は、専門知識とカテゴリ意味相関の両方を含む新しい意味強化知識グラフを提供する。
知識グラフの情報伝達のために,Residual Graph Convolutional Network (ResGCN)を提案する。
大規模画像Net-21KデータセットとAWA2データセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-26T13:18:36Z) - Exploiting Category Names for Few-Shot Classification with
Vision-Language Models [78.51975804319149]
大規模データに事前訓練された視覚言語基礎モデルは、多くの視覚的理解タスクに強力なツールを提供する。
本稿では,カテゴリ名を用いて分類ヘッドを初期化することにより,少数ショット分類の性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-11-29T21:08:46Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Measuring Self-Supervised Representation Quality for Downstream
Classification using Discriminative Features [56.89813105411331]
我々は,SimCLR,SwaV,MoCo,BYOL,DINO,SimSiam,VICReg,Barlow Twinsといった最先端の自己教師型モデルの表現空間について検討した。
本稿では,標本が誤分類される可能性を確実に予測できる教師なしスコアである自己監督表現品質スコア(Qスコア)を提案する。
Q-Score正規化による微調整により、SSLモデルの線形探索精度はImageNet-100で5.8%、ImageNet-1Kで3.7%向上する。
論文 参考訳(メタデータ) (2022-03-03T17:48:23Z) - Seed the Views: Hierarchical Semantic Alignment for Contrastive
Representation Learning [116.91819311885166]
一つの画像から生成されたビューをtextbfCross-samples や Multi-level representation に拡張することで,階層的なセマンティックアライメント戦略を提案する。
提案手法はCsMlと呼ばれ,サンプル間の多層視覚表現を堅牢な方法で統合する機能を備えている。
論文 参考訳(メタデータ) (2020-12-04T17:26:24Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。