論文の概要: Visual Concept-Metaconcept Learning
- arxiv url: http://arxiv.org/abs/2002.01464v1
- Date: Tue, 4 Feb 2020 18:42:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 02:25:14.125525
- Title: Visual Concept-Metaconcept Learning
- Title(参考訳): ビジュアルコンセプト-メタコンセプト学習
- Authors: Chi Han, Jiayuan Mao, Chuang Gan, Joshua B. Tenenbaum, Jiajun Wu
- Abstract要約: 本稿では,概念とメタ概念を画像と関連する問合せ対から学習するための視覚概念メタコンセプタ(VCML)を提案する。
赤と緑がオブジェクトの同じ性質を記述していることを知ると、立方体と球面がオブジェクトの同じ性質を記述しているという事実を一般化する。
- 参考スコア(独自算出の注目度): 101.62725114966211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans reason with concepts and metaconcepts: we recognize red and green from
visual input; we also understand that they describe the same property of
objects (i.e., the color). In this paper, we propose the visual
concept-metaconcept learner (VCML) for joint learning of concepts and
metaconcepts from images and associated question-answer pairs. The key is to
exploit the bidirectional connection between visual concepts and metaconcepts.
Visual representations provide grounding cues for predicting relations between
unseen pairs of concepts. Knowing that red and green describe the same property
of objects, we generalize to the fact that cube and sphere also describe the
same property of objects, since they both categorize the shape of objects.
Meanwhile, knowledge about metaconcepts empowers visual concept learning from
limited, noisy, and even biased data. From just a few examples of purple cubes
we can understand a new color purple, which resembles the hue of the cubes
instead of the shape of them. Evaluation on both synthetic and real-world
datasets validates our claims.
- Abstract(参考訳): 視覚的な入力から赤と緑を認識し、それらがオブジェクトの同じ性質(つまり色)を記述することも理解している。
本稿では,画像と関連する質問応答対から概念とメタ概念を共同学習するための視覚概念メタコンセプタ(VCML)を提案する。
キーとなるのは,視覚概念とメタ概念の双方向接続を活用することだ。
視覚的表現は、見当たらない概念のペア間の関係を予測するための基礎となる手がかりを提供する。
赤と緑がオブジェクトの同じ性質を記述していることを知ると、立方体と球面がオブジェクトの形状を分類するため、オブジェクトの同じ性質も記述しているという事実を一般化する。
一方、メタコンセプトに関する知識は、限られた、騒々しい、バイアスのあるデータから視覚的な概念を学ぶのに役立ちます。
紫のキューブの例から、新しい色の紫はキューブの形ではなくキューブの色に似ています。
合成および実世界の両方のデータセットの評価は、我々の主張を検証する。
関連論文リスト
- Pre-trained Vision-Language Models Learn Discoverable Visual Concepts [33.302556000017844]
学習した視覚的概念が広範囲のアプリケーションを可能にすることを目標にしています。
事前学習されたVLMによってキャプチャされた視覚概念は、テキストベースの概念プロンプトで視覚言語インタフェースによって抽出できると仮定する。
提案する概念発見学習フレームワークは,汎用的な視覚概念の多種多様なリストを識別するように設計されている。
論文 参考訳(メタデータ) (2024-04-19T06:41:32Z) - Knowledge graphs for empirical concept retrieval [1.06378109904813]
概念に基づく説明可能なAIは、あるユーザの前提における複雑なモデルの理解を改善するツールとして期待されている。
本稿では,テキスト領域と画像領域の両方でユーザ主導のデータ収集を行うワークフローを提案する。
我々は,概念アクティベーションベクトル(CAV)と概念アクティベーション領域(CAR)の2つの概念ベース説明可能性手法を用いて,検索した概念データセットをテストする。
論文 参考訳(メタデータ) (2024-04-10T13:47:22Z) - Concept2Box: Joint Geometric Embeddings for Learning Two-View Knowledge
Graphs [77.10299848546717]
Concept2Boxは、KGの2つのビューを共同で埋め込む新しいアプローチである。
ボックス埋め込みは、それら間の重複や解離のような階層構造と複雑な関係を学習する。
本稿では,新しいベクトル-ボックス間距離測定法を提案し,両者の埋め込みを共同で学習する。
論文 参考訳(メタデータ) (2023-07-04T21:37:39Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - Intrinsic Physical Concepts Discovery with Object-Centric Predictive
Models [86.25460882547581]
PHYsical Concepts Inference NEtwork (PHYCINE) は、異なる抽象レベルの物理概念を監督なしで推論するシステムである。
物理概念変数を含むオブジェクト表現は因果推論タスクの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:52:21Z) - FALCON: Fast Visual Concept Learning by Integrating Images, Linguistic
descriptions, and Conceptual Relations [99.54048050189971]
自然に発生する複数のデータストリームによってガイドされる新しい視覚概念を素早く学習するフレームワークを提案する。
学習された概念は、未知の画像について推論することで質問に答えるなど、下流のアプリケーションをサポートする。
合成と実世界の両方のデータセットにおけるモデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-30T19:45:00Z) - PTR: A Benchmark for Part-based Conceptual, Relational, and Physical
Reasoning [135.2892665079159]
PTRと呼ばれる大規模診断用視覚推論データセットを新たに導入する。
PTRは70kのRGBD合成画像と地上の真実のオブジェクトと部分レベルのアノテーションを含んでいる。
このデータセット上で、いくつかの最先端の視覚的推論モデルを調べ、それらがまだ多くの驚くべき誤りを犯していることを観察する。
論文 参考訳(メタデータ) (2021-12-09T18:59:34Z) - Towards Visual Semantics [17.1623244298824]
私たちは、人間の視覚的知覚の精神表現、すなわち概念の構築方法を研究します。
本稿では,分類概念と呼ばれる概念に対応する物質概念を学習する理論とアルゴリズムを提案する。
予備的な実験は、アルゴリズムが正しい精度で属と分化の概念を取得することを証明している。
論文 参考訳(メタデータ) (2021-04-26T07:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。