論文の概要: Attribute Propagation Network for Graph Zero-shot Learning
- arxiv url: http://arxiv.org/abs/2009.11816v1
- Date: Thu, 24 Sep 2020 16:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:22:11.639824
- Title: Attribute Propagation Network for Graph Zero-shot Learning
- Title(参考訳): グラフゼロショット学習のための属性伝搬ネットワーク
- Authors: Lu Liu, Tianyi Zhou, Guodong Long, Jing Jiang, Chengqi Zhang
- Abstract要約: 属性伝達ネットワーク (APNet) を導入し, 1) クラス毎に属性ベクトルを生成するグラフ伝搬モデルと, 2) パラメータ化隣人 (NN) 分類器から構成する。
APNetは、2つのゼロショット学習設定と5つのベンチマークデータセットによる実験で、魅力的なパフォーマンスまたは新しい最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 57.68486382473194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of zero-shot learning (ZSL) is to train a model to classify samples
of classes that were not seen during training. To address this challenging
task, most ZSL methods relate unseen test classes to seen(training) classes via
a pre-defined set of attributes that can describe all classes in the same
semantic space, so the knowledge learned on the training classes can be adapted
to unseen classes. In this paper, we aim to optimize the attribute space for
ZSL by training a propagation mechanism to refine the semantic attributes of
each class based on its neighbors and related classes on a graph of classes. We
show that the propagated attributes can produce classifiers for zero-shot
classes with significantly improved performance in different ZSL settings. The
graph of classes is usually free or very cheap to acquire such as WordNet or
ImageNet classes. When the graph is not provided, given pre-defined semantic
embeddings of the classes, we can learn a mechanism to generate the graph in an
end-to-end manner along with the propagation mechanism. However, this
graph-aided technique has not been well-explored in the literature. In this
paper, we introduce the attribute propagation network (APNet), which is
composed of 1) a graph propagation model generating attribute vector for each
class and 2) a parameterized nearest neighbor (NN) classifier categorizing an
image to the class with the nearest attribute vector to the image's embedding.
For better generalization over unseen classes, different from previous methods,
we adopt a meta-learning strategy to train the propagation mechanism and the
similarity metric for the NN classifier on multiple sub-graphs, each associated
with a classification task over a subset of training classes. In experiments
with two zero-shot learning settings and five benchmark datasets, APNet
achieves either compelling performance or new state-of-the-art results.
- Abstract(参考訳): zero-shot learning(zsl)の目的は、トレーニング中に見られなかったクラスのサンプルを分類するモデルをトレーニングすることだ。
この課題に対処するために、ほとんどのZSLメソッドは、同じセマンティック空間内のすべてのクラスを記述することができる属性のセットを通じて、未確認のテストクラスをルック(トレーニング)クラスに関連付けるため、トレーニングクラスで学んだ知識は、未確認クラスに適応できる。
本稿では,クラスグラフ上の各クラスとその関連クラスに基づいて,各クラスのセマンティック属性を洗練するための伝搬機構を訓練することにより,ZSLの属性空間を最適化することを目的とする。
提案する属性は,zsl設定によって性能が大幅に向上したゼロショットクラスの分類器を生成できることを示す。
クラスグラフは通常、wordnetクラスやimagenetクラスなどの取得に無料または非常に安価である。
グラフが提供されない場合、クラスに事前に定義されたセマンティック埋め込みが与えられると、伝播機構とともにエンドツーエンドでグラフを生成するメカニズムを学ぶことができる。
しかし、このグラフ支援技術は文献ではあまり研究されていない。
本稿では,属性伝達ネットワーク(apnet)について述べる。
1)各クラスに属性ベクトルを生成するグラフ伝搬モデルと
2)パラメータ化された最寄り隣人(NN)分類器は、画像の埋め込みに最も近い属性ベクトルを持つクラスに画像を分類する。
従来の手法と異なり、未確認クラスに対するより良い一般化のために、複数のサブグラフ上でNN分類器の伝搬機構と類似度を訓練するためのメタラーニング戦略を採用し、それぞれが訓練クラスのサブセット上の分類タスクに関連付けられている。
2つのゼロショット学習設定と5つのベンチマークデータセットを用いた実験で、apnetは説得力のあるパフォーマンスか、新しい最先端の結果を得る。
関連論文リスト
- Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - GAN for Vision, KG for Relation: a Two-stage Deep Network for Zero-shot
Action Recognition [33.23662792742078]
ゼロショット動作認識のための2段階のディープニューラルネットワークを提案する。
サンプリング段階では,授業の動作特徴と単語ベクトルによって訓練されたGAN(Generative Adversarial Network)を利用する。
分類段階において、アクションクラスの単語ベクトルと関連するオブジェクトの関係に基づいて知識グラフを構築する。
論文 参考訳(メタデータ) (2021-05-25T09:34:42Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - Generative Multi-Label Zero-Shot Learning [136.17594611722285]
マルチラベルゼロショット学習は、トレーニング中にデータが入手できない複数の見えないカテゴリにイメージを分類する試みである。
我々の研究は、(一般化された)ゼロショット設定におけるマルチラベル機能の問題に最初に取り組みました。
私たちのクロスレベル核融合に基づく生成アプローチは、3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-01-27T18:56:46Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - A Multi-class Approach -- Building a Visual Classifier based on Textual
Descriptions using Zero-Shot Learning [0.34265828682659694]
機械学習の主なハードル、すなわちデータの不足と分類モデルの制約付き予測を克服する。
特定のクラスに対して学習するのではなく、ラベル付き画像をテキスト記述にマッピングすることで分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-18T12:06:55Z) - Generative Adversarial Zero-shot Learning via Knowledge Graphs [32.42721467499858]
本稿では,知識グラフ(KG)にリッチセマンティクスを組み込むことにより,KG-GANという新たな生成ZSL手法を提案する。
具体的には、グラフニューラルネットワークに基づいて、クラスビューと属性ビューの2つのビューからKGをエンコードする。
各ノードに対してよく学習されたセマンティックな埋め込み(視覚圏を表す)を用いて、GANを活用して、目に見えないクラスの魅力的な視覚的特徴を合成する。
論文 参考訳(メタデータ) (2020-04-07T03:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。