論文の概要: Ontology-based n-ball Concept Embeddings Informing Few-shot Image
Classification
- arxiv url: http://arxiv.org/abs/2109.09063v1
- Date: Sun, 19 Sep 2021 05:35:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 13:40:52.185735
- Title: Ontology-based n-ball Concept Embeddings Informing Few-shot Image
Classification
- Title(参考訳): 画像分類を行うオントロジーに基づくn-ball概念埋め込み
- Authors: Mirantha Jayathilaka, Tingting Mu, Uli Sattler
- Abstract要約: ViOCEは、ニューラルネットワークベースの視覚アーキテクチャに、$n$-ballの概念を組み込む形で、象徴的な知識を統合する。
本稿では,2つの標準ベンチマークにおいて,画像分類のタスクを用いてViOCEを評価し,優れた性能を示す。
- 参考スコア(独自算出の注目度): 5.247029505708008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel framework named ViOCE that integrates ontology-based
background knowledge in the form of $n$-ball concept embeddings into a neural
network based vision architecture. The approach consists of two components -
converting symbolic knowledge of an ontology into continuous space by learning
n-ball embeddings that capture properties of subsumption and disjointness, and
guiding the training and inference of a vision model using the learnt
embeddings. We evaluate ViOCE using the task of few-shot image classification,
where it demonstrates superior performance on two standard benchmarks.
- Abstract(参考訳): 我々は、オントロジーに基づく背景知識を、ニューラルネットワークベースの視覚アーキテクチャに組み込んだ、$n$-ballの概念の形で統合する、ViOCEという新しいフレームワークを提案する。
このアプローチは、2つの要素からなるオントロジーの象徴的知識を連続空間に変換し、仮定と不一致の性質をキャプチャするn-ボール埋め込みを学習し、学習した埋め込みを用いて視覚モデルのトレーニングと推論を導く。
本稿では,2つの標準ベンチマークにおいて,画像分類のタスクを用いてViOCEを評価し,優れた性能を示す。
関連論文リスト
- Advancing Ante-Hoc Explainable Models through Generative Adversarial Networks [24.45212348373868]
本稿では,視覚的分類タスクにおけるモデル解釈可能性と性能を向上させるための新しい概念学習フレームワークを提案する。
本手法では, 教師なし説明生成器を一次分類器ネットワークに付加し, 対角訓練を利用する。
この研究は、タスク整合概念表現を用いた本質的に解釈可能なディープビジョンモデルを構築するための重要なステップを示す。
論文 参考訳(メタデータ) (2024-01-09T16:16:16Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - Impact of a DCT-driven Loss in Attention-based Knowledge-Distillation
for Scene Recognition [64.29650787243443]
本稿では, アクティベーションマップの2次元周波数変換を転送前に提案し, 解析する。
この戦略は、シーン認識などのタスクにおける知識伝達可能性を高める。
我々は、この論文で使われているトレーニングおよび評価フレームワークを、http://www.vpu.eps.uam.es/publications/DCTBasedKDForSceneRecognitionで公開しています。
論文 参考訳(メタデータ) (2022-05-04T11:05:18Z) - K-LITE: Learning Transferable Visual Models with External Knowledge [242.3887854728843]
K-LITE (Knowledge-augmented Language- Image Training and Evaluation) は、外部知識を活用して伝達可能な視覚システムを構築する戦略である。
トレーニングでは、WordNetとWiktionaryの知識で自然言語のエンティティを豊かにする。
評価において、自然言語は外部知識で拡張され、学習された視覚概念を参照するために使用される。
論文 参考訳(メタデータ) (2022-04-20T04:47:01Z) - Zero-Shot Compositional Concept Learning [10.108857371774977]
本稿では,エピソードベース・クロスアテンション(EpiCA)ネットワークを提案する。
EpiCAは、概念と視覚情報を関連付けるためにクロスアテンションをベースとし、ゲートプーリング層を使用して、画像と概念の両方のコンテキスト化された表現を構築する。
広範に使われているゼロショット合成学習(ZSCL)ベンチマークの実験は、モデルの有効性を実証した。
論文 参考訳(メタデータ) (2021-07-12T03:31:56Z) - Knowledge-Guided Object Discovery with Acquired Deep Impressions [41.07379505694274]
物体の知識を「印象」として継続的に学習するADI(Acquired Deep Impressions)というフレームワークを紹介します。
ADIはまず、1つのオブジェクトを含むシーンイメージから、監視された方法で知識を得ます。
そして、これまで見たことのないオブジェクトを含む可能性のある、新しいマルチオブジェクトシーンイメージから学習する。
論文 参考訳(メタデータ) (2021-03-19T03:17:57Z) - Universal Representation Learning of Knowledge Bases by Jointly
Embedding Instances and Ontological Concepts [39.99087114075884]
我々は,より優れた知識の埋め込みを実現するために,新しい2視点KG埋め込みモデルJOIEを提案する。
JOIEは、知識基盤の複数の側面を学習するクロスビューおよびイントラビューモデリングを採用しています。
私たちのモデルは、大規模なインスタンスと(小さな)クロスビューリンクを介して接続された対応するオントロジ概念からなる大規模な知識ベースで訓練されます。
論文 参考訳(メタデータ) (2021-03-15T03:24:37Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z) - Visual-Semantic Embedding Model Informed by Structured Knowledge [3.2734466030053175]
本稿では,外部構造的知識ベースから取得した概念表現を組み込むことにより,視覚意味の埋め込みモデルを改善する新しい手法を提案する。
標準設定とゼロショット設定の両方で画像分類の性能について検討する。
論文 参考訳(メタデータ) (2020-09-21T17:04:32Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。