論文の概要: Ontology-guided Semantic Composition for Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2006.16917v1
- Date: Tue, 30 Jun 2020 15:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 04:35:53.026408
- Title: Ontology-guided Semantic Composition for Zero-Shot Learning
- Title(参考訳): ゼロショット学習のためのオントロジー誘導意味合成
- Authors: Jiaoyan Chen and Freddy Lecue and Yuxia Geng and Jeff Z. Pan and
Huajun Chen
- Abstract要約: 本稿では,Webオントロジー言語(OWL)オントロジーを用いて,クラスラベルの合成と表現のセマンティクスをモデル化する。
この効果は、動物画像分類と視覚的質問応答に関するいくつかの実験によって検証されている。
- 参考スコア(独自算出の注目度): 36.84707487983917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) is a popular research problem that aims at
predicting for those classes that have never appeared in the training stage by
utilizing the inter-class relationship with some side information. In this
study, we propose to model the compositional and expressive semantics of class
labels by an OWL (Web Ontology Language) ontology, and further develop a new
ZSL framework with ontology embedding. The effectiveness has been verified by
some primary experiments on animal image classification and visual question
answering.
- Abstract(参考訳): ゼロショット学習(ZSL, Zero-shot Learning)は、クラス間関係を一部の情報と利用することで、トレーニング段階で一度も現れなかったクラスを予測することを目的とした一般的な研究課題である。
本研究では、OWL(Web Ontology Language)オントロジーによるクラスラベルの合成と表現のセマンティクスをモデル化し、さらに、オントロジーを組み込んだ新しいZSLフレームワークを開発することを提案する。
この効果は、動物画像分類と視覚的質問応答に関するいくつかの実験によって検証されている。
関連論文リスト
- Prompting Language-Informed Distribution for Compositional Zero-Shot Learning [73.49852821602057]
合成ゼロショット学習(CZSL)タスクは、目に見えない合成視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - CLAMP: Prompt-based Contrastive Learning for Connecting Language and
Animal Pose [70.59906971581192]
本稿では,言語とAniMal Poseを効果的に接続するための,新しいプロンプトベースのコントラスト学習手法を提案する。
CLAMPは、ネットワークトレーニング中にテキストプロンプトを動物のキーポイントに適応させることでギャップを埋めようとしている。
実験結果から, 教師付き, 少数ショット, ゼロショット設定下での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-06-23T14:51:42Z) - Disentangled Ontology Embedding for Zero-shot Learning [39.014714187825646]
知識グラフ(KG)とその変種オントロジーは知識表現に広く用いられており、ゼロショット学習(ZSL)の増強に非常に有効であることが示されている。
KGsを利用する既存のZSL法は、KGsで表されるクラス間関係の複雑さを全て無視する。
本稿では,ZSLの拡張に焦点をあて,意味的特性によって導かれる絡み合ったオントロジーの埋め込みを学習することを提案する。
また、生成モデルとグラフ伝搬モデルに基づく2つの新しいZSLソリューションを含む、DOZSLという新しいZSLフレームワークをコントリビュートする。
論文 参考訳(メタデータ) (2022-06-08T08:29:30Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - What Remains of Visual Semantic Embeddings [0.618778092044887]
標準のImageNetベンチマークにおける構造欠陥を回避するため、ZSLタスクにタイレッドイメージネットの分割を導入する。
我々は,ZSLのための統合フレームワークを構築し,コントラスト学習を事前学習とし,セマンティックな情報漏洩を保証している。
我々の研究は、意味推論が決定的なZSL設定上で視覚的セマンティック埋め込みモデルを評価するのに公平である。
論文 参考訳(メタデータ) (2021-07-26T06:55:11Z) - Zero-Shot Learning Based on Knowledge Sharing [0.0]
Zero-Shot Learning(ZSL)は、ごくわずかなトレーニングデータで分類問題を解決することを目的とした新しい研究です。
本稿では,意味的特徴の表現を充実させるために,知識共有(KS)を導入する。
KSをベースとして,実際の視覚特徴に非常に近い意味的特徴から擬似視覚特徴を生成するために,生成的対向ネットワークを適用した。
論文 参考訳(メタデータ) (2021-02-26T06:43:29Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - Semantic Disentangling Generalized Zero-Shot Learning [50.259058462272435]
Generalized Zero-Shot Learning (GZSL)は、目に見えないカテゴリと見えないカテゴリの両方から画像を認識することを目的としている。
本稿では,エンコーダ・デコーダアーキテクチャに基づく新しい特徴分割手法を提案する。
提案モデルは,視像の固有特徴をキャプチャする品質意味一貫性表現を蒸留することを目的としている。
論文 参考訳(メタデータ) (2021-01-20T05:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。