論文の概要: MetaConcept: Learn to Abstract via Concept Graph for Weakly-Supervised
Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2007.02379v2
- Date: Tue, 11 May 2021 04:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:21:20.048419
- Title: MetaConcept: Learn to Abstract via Concept Graph for Weakly-Supervised
Few-Shot Learning
- Title(参考訳): MetaConcept: 弱教師付きFew-Shot学習のための概念グラフによる抽象学習
- Authors: Baoquan Zhang, Ka-Cheong Leung, Yunming Ye, Xutao Li
- Abstract要約: 概念グラフを通して概念を抽象化することを学ぶメタコンセプトと呼ばれる新しいメタ学習フレームワークを提案する。
提案したMetaConceptは,2%から6%の精度で最先端の手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 17.332915753143556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning has been proved to be an effective framework to address
few-shot learning problems. The key challenge is how to minimize the
generalization error of base learner across tasks. In this paper, we explore
the concept hierarchy knowledge by leveraging concept graph, and take the
concept graph as explicit meta-knowledge for the base learner, instead of
learning implicit meta-knowledge, so as to boost the classification performance
of meta-learning on weakly-supervised few-shot learning problems. To this end,
we propose a novel meta-learning framework, called MetaConcept, which learns to
abstract concepts via the concept graph. Specifically, we firstly propose a
novel regularization with multi-level conceptual abstraction to constrain a
meta-learner to learn to abstract concepts via the concept graph (i.e.
identifying the concepts from low to high levels). Then, we propose a meta
concept inference network as the meta-learner for the base learner, aiming to
quickly adapt to a novel task by the joint inference of the abstract concepts
and a few annotated samples. We have conducted extensive experiments on two
weakly-supervised few-shot learning benchmarks, namely, WS-ImageNet-Pure and
WS-ImageNet-Mix. Our experimental results show that 1) the proposed MetaConcept
outperforms state-of-the-art methods with an improvement of 2% to 6% in
classification accuracy; 2) the proposed MetaConcept can be able to yield a
good performance though merely training with weakly-labeled data sets.
- Abstract(参考訳): メタラーニングは、数少ない学習問題に対処する効果的なフレームワークであることが証明されている。
重要な課題は、タスク間のベースラーナの一般化エラーを最小化する方法だ。
本稿では,概念グラフを利用して概念階層の知識を探求し,暗黙的なメタ知識を学習するのではなく,概念グラフをベース学習者にとって明示的なメタ知識として捉え,メタ学習の分類性能を向上させる。
そこで我々はMetaConceptというメタ学習フレームワークを提案し,概念グラフを通じて概念を抽象化することを学ぶ。
具体的には、概念グラフ(すなわち、概念を低レベルから高レベルに識別する)を通して抽象概念を学ぶメタリーナーを拘束するために、多レベル概念抽象化を用いた新しい正規化を提案する。
そこで本研究では,メタ概念推論ネットワークをベースラーナーのメタラーナーとして提案し,抽象概念の共用推論といくつかの注釈付きサンプルを用いて,新しい課題に迅速に適応することを目的とする。
我々は,WS-ImageNet-Pure と WS-ImageNet-Mix の2つの弱い教師付き少ショット学習ベンチマークについて広範な実験を行った。
我々の実験結果は
1) 提案するメタコンセプタは, 分類精度が2%から6%向上し, 最先端手法よりも優れている。
2) 提案するメタコンセプタは, 弱いラベルのデータセットでトレーニングするだけでよいが, 優れた性能が得られる。
関連論文リスト
- MetaReVision: Meta-Learning with Retrieval for Visually Grounded
Compositional Concept Acquisition [32.38272122354342]
本稿では,視覚的に基礎を成す合成概念学習問題に対処するメタ学習モデルを提案する。
提案するMetaReVisionは,検索モジュールと,検索した原始概念を取り入れたメタ学習モジュールから構成される。
実験の結果,MetaReVisionは他の競争ベースラインよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-02T20:19:58Z) - Graph Contrastive Learning Meets Graph Meta Learning: A Unified Method
for Few-shot Node Tasks [68.60884768323739]
Contrastive Few-Shot Node Classification (COLA)を紹介する。
COLAはグラフ拡張を使用して意味的に類似したノードを識別し、ラベル情報を必要としないメタタスクの構築を可能にする。
広範な実験を通じて、我々は設計における各コンポーネントの本質を検証し、COLAが全てのタスクにおいて新しい最先端を達成することを実証する。
論文 参考訳(メタデータ) (2023-09-19T07:24:10Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - A Unified Framework with Meta-dropout for Few-shot Learning [25.55782263169028]
本稿ではメタラーニングの考え方を用いて,2つの全く異なる2つのショットラーニングのストリームを説明する。
本稿では,メタドロップアウト(メタドロップアウト)というシンプルな手法を提案し,基本カテゴリから新しいカテゴリへ一般化された伝達可能な知識に適用する。
論文 参考訳(メタデータ) (2022-10-12T17:05:06Z) - Online Structured Meta-learning [137.48138166279313]
現在のオンラインメタ学習アルゴリズムは、グローバルに共有されたメタラーナーを学ぶために限られている。
この制限を克服するオンライン構造化メタラーニング(OSML)フレームワークを提案する。
3つのデータセットの実験は、提案フレームワークの有効性と解釈可能性を示している。
論文 参考訳(メタデータ) (2020-10-22T09:10:31Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Revisiting Meta-Learning as Supervised Learning [69.2067288158133]
メタラーニングと従来の教師付き学習の関連性を再考し,強化することで,原則的,統一的なフレームワークの提供を目指す。
タスク固有のデータセットとターゲットモデルを(機能、ラベル)サンプルとして扱うことで、多くのメタ学習アルゴリズムを教師付き学習のインスタンスに還元することができる。
この視点は、メタラーニングを直感的で実践的なフレームワークに統一するだけでなく、教師付き学習から直接洞察を伝達してメタラーニングを改善することができる。
論文 参考訳(メタデータ) (2020-02-03T06:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。