論文の概要: MetaReVision: Meta-Learning with Retrieval for Visually Grounded
Compositional Concept Acquisition
- arxiv url: http://arxiv.org/abs/2311.01580v1
- Date: Thu, 2 Nov 2023 20:19:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 16:03:40.837887
- Title: MetaReVision: Meta-Learning with Retrieval for Visually Grounded
Compositional Concept Acquisition
- Title(参考訳): MetaReVision: ビジュアルグラウンド構成概念獲得のための検索付きメタラーニング
- Authors: Guangyue Xu, Parisa Kordjamshidi, Joyce Chai
- Abstract要約: 本稿では,視覚的に基礎を成す合成概念学習問題に対処するメタ学習モデルを提案する。
提案するMetaReVisionは,検索モジュールと,検索した原始概念を取り入れたメタ学習モジュールから構成される。
実験の結果,MetaReVisionは他の競争ベースラインよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 32.38272122354342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans have the ability to learn novel compositional concepts by recalling
and generalizing primitive concepts acquired from past experiences. Inspired by
this observation, in this paper, we propose MetaReVision, a retrieval-enhanced
meta-learning model to address the visually grounded compositional concept
learning problem. The proposed MetaReVision consists of a retrieval module and
a meta-learning module which are designed to incorporate retrieved primitive
concepts as a supporting set to meta-train vision-anguage models for grounded
compositional concept recognition. Through meta-learning from episodes
constructed by the retriever, MetaReVision learns a generic compositional
representation that can be fast updated to recognize novel compositional
concepts. We create CompCOCO and CompFlickr to benchmark the grounded
compositional concept learning. Our experimental results show that MetaReVision
outperforms other competitive baselines and the retrieval module plays an
important role in this compositional learning process.
- Abstract(参考訳): 人間は過去の経験から得られた原始概念を思い出し、一般化することで、新しい構成概念を学ぶことができる。
本稿では,メタレヴィジョン(MetaReVision)を提案する。メタレヴィジョン(MetaReVision)は,視覚的に基礎を成す合成概念学習問題に対処するためのメタ学習モデルである。
提案するメタリビジョンは、検索モジュールと、検索された原始概念を基底構成概念認識のためのメタトレーニングヴィジュアルアンゲージモデルへの支援セットとして組み込むように設計されたメタ学習モジュールから構成される。
検索者が構築したエピソードからのメタ学習を通じて、MetaReVisionは、新しい構成概念を認識するために素早く更新できる一般的な構成表現を学ぶ。
CompCOCOとCompFlickrを作成し、基礎となる合成概念学習をベンチマークする。
実験の結果,MetaReVisionは他の競争的ベースラインよりも優れており,この合成学習プロセスにおいて,検索モジュールが重要な役割を果たすことがわかった。
関連論文リスト
- Advancing Ante-Hoc Explainable Models through Generative Adversarial Networks [24.45212348373868]
本稿では,視覚的分類タスクにおけるモデル解釈可能性と性能を向上させるための新しい概念学習フレームワークを提案する。
本手法では, 教師なし説明生成器を一次分類器ネットワークに付加し, 対角訓練を利用する。
この研究は、タスク整合概念表現を用いた本質的に解釈可能なディープビジョンモデルを構築するための重要なステップを示す。
論文 参考訳(メタデータ) (2024-01-09T16:16:16Z) - OC-NMN: Object-centric Compositional Neural Module Network for
Generative Visual Analogical Reasoning [49.12350554270196]
モジュラリティがいかにして、想像にインスパイアされた構成データ拡張フレームワークを導出できるかを示す。
本手法は, オブジェクト中心合成ニューラルネットワーク (OC-NMN) を用いて, 視覚生成推論タスクを, ドメイン固有言語を使わずに, オブジェクトに適用した一連のプリミティブに分解する。
論文 参考訳(メタデータ) (2023-10-28T20:12:58Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - Interactive Disentanglement: Learning Concepts by Interacting with their
Prototype Representations [15.284688801788912]
本稿では,ニューラル概念学習者の潜伏空間の理解と改訂のためのプロトタイプ表現の利点を示す。
この目的のために,対話型概念スワッピングネットワーク(iCSN)を導入する。
iCSNは、ペア画像の潜在表現を交換することで、概念情報を特定のプロトタイプスロットにバインドすることを学ぶ。
論文 参考訳(メタデータ) (2021-12-04T09:25:40Z) - Unsupervised Learning of Compositional Energy Concepts [70.11673173291426]
本稿では,概念を別個のエネルギー関数として発見し,表現するCOMETを提案する。
Cometは、統一されたフレームワークの下でのオブジェクトだけでなく、グローバルな概念も表現します。
論文 参考訳(メタデータ) (2021-11-04T17:46:12Z) - Visually Grounded Concept Composition [31.981204314287282]
我々はこれらを画像に合わせることによって、原始概念と全構成概念の両方の基礎を学ぶ。
そこで本研究では,テキストと画像のマッチング精度を指標として,合成学習がより堅牢なグラウンド化結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-29T00:38:58Z) - Ontology-based n-ball Concept Embeddings Informing Few-shot Image
Classification [5.247029505708008]
ViOCEは、ニューラルネットワークベースの視覚アーキテクチャに、$n$-ballの概念を組み込む形で、象徴的な知識を統合する。
本稿では,2つの標準ベンチマークにおいて,画像分類のタスクを用いてViOCEを評価し,優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-19T05:35:43Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - MetaConcept: Learn to Abstract via Concept Graph for Weakly-Supervised
Few-Shot Learning [17.332915753143556]
概念グラフを通して概念を抽象化することを学ぶメタコンセプトと呼ばれる新しいメタ学習フレームワークを提案する。
提案したMetaConceptは,2%から6%の精度で最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-07-05T16:29:09Z) - Revisiting Meta-Learning as Supervised Learning [69.2067288158133]
メタラーニングと従来の教師付き学習の関連性を再考し,強化することで,原則的,統一的なフレームワークの提供を目指す。
タスク固有のデータセットとターゲットモデルを(機能、ラベル)サンプルとして扱うことで、多くのメタ学習アルゴリズムを教師付き学習のインスタンスに還元することができる。
この視点は、メタラーニングを直感的で実践的なフレームワークに統一するだけでなく、教師付き学習から直接洞察を伝達してメタラーニングを改善することができる。
論文 参考訳(メタデータ) (2020-02-03T06:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。