論文の概要: OntoZSL: Ontology-enhanced Zero-shot Learning
- arxiv url: http://arxiv.org/abs/2102.07339v1
- Date: Mon, 15 Feb 2021 04:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 04:57:55.205756
- Title: OntoZSL: Ontology-enhanced Zero-shot Learning
- Title(参考訳): OntoZSL: オントロジー強化ゼロショット学習
- Authors: Yuxia Geng, Jiaoyan Chen, Zhuo Chen, Jeff Z. Pan, Zhiquan Ye, Zonggang
Yuan, Yantao Jia, Huajun Chen
- Abstract要約: Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
- 参考スコア(独自算出の注目度): 19.87808305218359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot Learning (ZSL), which aims to predict for those classes that have
never appeared in the training data, has arisen hot research interests. The key
of implementing ZSL is to leverage the prior knowledge of classes which builds
the semantic relationship between classes and enables the transfer of the
learned models (e.g., features) from training classes (i.e., seen classes) to
unseen classes. However, the priors adopted by the existing methods are
relatively limited with incomplete semantics. In this paper, we explore richer
and more competitive prior knowledge to model the inter-class relationship for
ZSL via ontology-based knowledge representation and semantic embedding.
Meanwhile, to address the data imbalance between seen classes and unseen
classes, we developed a generative ZSL framework with Generative Adversarial
Networks (GANs). Our main findings include: (i) an ontology-enhanced ZSL
framework that can be applied to different domains, such as image
classification (IMGC) and knowledge graph completion (KGC); (ii) a
comprehensive evaluation with multiple zero-shot datasets from different
domains, where our method often achieves better performance than the
state-of-the-art models. In particular, on four representative ZSL baselines of
IMGC, the ontology-based class semantics outperform the previous priors e.g.,
the word embeddings of classes by an average of 12.4 accuracy points in the
standard ZSL across two example datasets (see Figure 4).
- Abstract(参考訳): ゼロショット学習(ZSL)は、トレーニングデータに登場していないクラスを予測することを目的としており、ホットな研究の関心が寄せられています。
ZSLの実装の鍵は、クラス間のセマンティックな関係を構築し、学習したモデル(機能など)をトレーニングクラス(例:見られないクラス)から見えないクラスに転送できるようにするクラスに関する以前の知識を活用することである。
しかし、既存の手法が採用する先行処理は、不完全意味論では比較的限られている。
本稿では,zslのクラス間関係をオントロジーに基づく知識表現と意味埋め込みによってモデル化するために,より豊かで競争力の高い事前知識を探索する。
一方、見知らぬクラスと見つからないクラス間のデータ不均衡に対処するため、GAN(Generative Adversarial Networks)を用いた生成ZSLフレームワークを開発した。
i)画像分類(IMGC)や知識グラフ補完(KGC)などの異なるドメインに適用可能なオントロジー強化ZSLフレームワーク。(ii)異なるドメインの複数のゼロショットデータセットによる包括的な評価。
特に、IMGCの4つの代表的ZSLベースラインにおいて、オントロジーに基づくクラスセマンティクスは、例えば、2つのサンプルデータセットにわたる標準ZSLにおける平均12.4の精度ポイントによるクラスの埋め込みよりも優れている(図4参照)。
関連論文リスト
- Prompting Language-Informed Distribution for Compositional Zero-Shot
Learning [80.29186197773636]
合成ゼロショット学習(CZSL)タスクは、目に見えない視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - A Survey on Self-supervised Learning: Algorithms, Applications, and
Future Trends [86.78685759427414]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - DiRaC-I: Identifying Diverse and Rare Training Classes for Zero-Shot
Learning [6.75714270653184]
ゼロショット学習(ZSL)のためのデータセットから、インテリジェントにトレーニングクラスを選択することで、既存のZSLメソッドのパフォーマンスを向上させることは直感的である。
属性ベースのデータセットが与えられた場合、ZSLモデルのトレーニングに最も適した「Seen Class」をインテリジェントに生成できるDiverse and Rare Class Identifier (DiRaC-I) というフレームワークを提案する。
DRaC-IはZSLモデルの分類精度の向上に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-31T16:05:09Z) - Disentangled Ontology Embedding for Zero-shot Learning [39.014714187825646]
知識グラフ(KG)とその変種オントロジーは知識表現に広く用いられており、ゼロショット学習(ZSL)の増強に非常に有効であることが示されている。
KGsを利用する既存のZSL法は、KGsで表されるクラス間関係の複雑さを全て無視する。
本稿では,ZSLの拡張に焦点をあて,意味的特性によって導かれる絡み合ったオントロジーの埋め込みを学習することを提案する。
また、生成モデルとグラフ伝搬モデルに基づく2つの新しいZSLソリューションを含む、DOZSLという新しいZSLフレームワークをコントリビュートする。
論文 参考訳(メタデータ) (2022-06-08T08:29:30Z) - Discriminative Region-based Multi-Label Zero-Shot Learning [145.0952336375342]
マルチラベルゼロショット学習(Multi-label zero-shot Learning、ZSL)は、標準のシングルラベルZSLのより現実的な対位法である。
本稿では,地域別識別可能性保存型ZSLに対する代替アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-20T17:56:47Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Generalized Continual Zero-Shot Learning [7.097782028036196]
ゼロショット学習(ZSL)は、クラス記述に基づいて、見知らぬクラスから見つからないクラスに知識を移すことによって、目に見えないクラスを分類することを目的としている。
本稿では,タスクの形式でクラスが順次到着するZSLについて,より汎用的で実用的な設定を提案する。
我々は、知識蒸留と、それ以前のタスクからの少数のサンプルの保存と再生を、小さなエピソードメモリを用いて行っている。
論文 参考訳(メタデータ) (2020-11-17T08:47:54Z) - Attribute Propagation Network for Graph Zero-shot Learning [57.68486382473194]
属性伝達ネットワーク (APNet) を導入し, 1) クラス毎に属性ベクトルを生成するグラフ伝搬モデルと, 2) パラメータ化隣人 (NN) 分類器から構成する。
APNetは、2つのゼロショット学習設定と5つのベンチマークデータセットによる実験で、魅力的なパフォーマンスまたは新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-24T16:53:40Z) - Prior Knowledge about Attributes: Learning a More Effective Potential
Space for Zero-Shot Recognition [0.07161783472741746]
本研究では,グラフ畳み込みネットワークと属性相関を用いた属性相関型空間生成モデルを構築し,より識別可能な空間を生成する。
提案手法は,いくつかのベンチマークデータセットにおいて,既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-09-14T06:57:23Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。