論文の概要: Flexible Compositional Learning of Structured Visual Concepts
- arxiv url: http://arxiv.org/abs/2105.09848v1
- Date: Thu, 20 May 2021 15:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:43:15.477415
- Title: Flexible Compositional Learning of Structured Visual Concepts
- Title(参考訳): 構造化視覚概念の柔軟な構成学習
- Authors: Yanli Zhou, Brenden M. Lake
- Abstract要約: 本研究では,豊かな関係構造を持つ抽象的な視覚形態を用いて,異なるタイプの視覚構成を学習する方法について検討する。
さまざまなシナリオで、ほんの数例から意味のある構成の一般化ができることが分かりました。
構成性の特別な場合を調べる過去の研究とは異なり、我々の研究は、単一の計算アプローチが多くの異なる種類の構成一般化を考慮できることを示す。
- 参考スコア(独自算出の注目度): 17.665938343060112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans are highly efficient learners, with the ability to grasp the meaning
of a new concept from just a few examples. Unlike popular computer vision
systems, humans can flexibly leverage the compositional structure of the visual
world, understanding new concepts as combinations of existing concepts. In the
current paper, we study how people learn different types of visual
compositions, using abstract visual forms with rich relational structure. We
find that people can make meaningful compositional generalizations from just a
few examples in a variety of scenarios, and we develop a Bayesian program
induction model that provides a close fit to the behavioral data. Unlike past
work examining special cases of compositionality, our work shows how a single
computational approach can account for many distinct types of compositional
generalization.
- Abstract(参考訳): 人間は非常に効率的な学習者であり、いくつかの例から新しい概念の意味を理解することができる。
一般的なコンピュータビジョンシステムとは異なり、人間は視覚世界の構成構造を柔軟に活用し、新しい概念を既存の概念の組み合わせとして理解することができる。
本稿では,リッチなリレーショナル構造を持つ抽象視覚形式を用いて,様々な視覚構成を学習する方法について検討する。
様々なシナリオでいくつかの例から有意義な構成一般化が可能であることが分かり,行動データによく適合するベイズプログラム誘導モデルを開発した。
構成性の特別な場合を調べる過去の研究とは異なり、我々の研究は単一の計算手法が多くの異なる種類の構成一般化を考慮できることを示す。
関連論文リスト
- Pix2Code: Learning to Compose Neural Visual Concepts as Programs [23.122886870560247]
プログラム合成を視覚的リレーショナル推論に拡張するフレームワークPix2Codeを提案する。
Pix2Codeの表現は人間の解釈可能であり、性能向上のために容易に修正可能であることを示す。
論文 参考訳(メタデータ) (2024-02-13T08:14:10Z) - Compositional diversity in visual concept learning [18.907108368038216]
人間は構成性を活用して、新しい概念を効率的に学習し、親しみのある部分がどのように結合して新しい物体を形成するかを理解する。
そこで本研究では,豊かな関係構造を持つ「異星人」の分類・生成方法について考察する。
我々は,候補となる視覚図を生成するための最適なプログラムを探索するベイズプログラム誘導モデルを開発した。
論文 参考訳(メタデータ) (2023-05-30T19:30:50Z) - Concept Decomposition for Visual Exploration and Inspiration [53.06983340652571]
本稿では,視覚概念を階層木構造に符号化した異なる視覚的側面に分解する手法を提案する。
我々は、概念分解と生成のために、大きな視覚言語モデルとそのリッチな潜在空間を利用する。
論文 参考訳(メタデータ) (2023-05-29T16:56:56Z) - Vector-based Representation is the Key: A Study on Disentanglement and
Compositional Generalization [77.57425909520167]
良質な概念認識と斬新な概念構成を両立させることが可能であることを示す。
本研究では,スカラーベース・アンタングル化作業のベクトルベース化を図り,両機能を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-05-29T13:05:15Z) - Succinct Representations for Concepts [12.134564449202708]
chatGPTのようなファンデーションモデルは、様々なタスクで顕著なパフォーマンスを示している。
しかし、多くの疑問に対して、彼らは正確なように見える誤った答えを生み出すかもしれない。
本稿では,圏論に基づく概念の簡潔な表現について述べる。
論文 参考訳(メタデータ) (2023-03-01T12:11:23Z) - Learning Attention Propagation for Compositional Zero-Shot Learning [71.55375561183523]
コンポジションアテンション・プロパゲード・エンベディング(CAPE)と呼ばれる新しい手法を提案する。
CAPEは、この構造を識別し、それらの間の知識を伝播して、目に見えないすべての構成に対するクラス埋め込みを学ぶ。
提案手法は,3つの公開ベンチマークに対して,新しい最先端のベンチマークを設定するために,従来のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-20T19:44:11Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Concepts, Properties and an Approach for Compositional Generalization [2.0559497209595823]
本報告は, 構成一般化に関する一連の研究を結びつけ, アプローチを要約する。
このアプローチでは、アーキテクチャ設計と正規化を使用して表現の情報を規制する。
この研究が、作曲の一般化の基礎を明確にし、人工知能の進歩に繋がることを願っている。
論文 参考訳(メタデータ) (2021-02-08T14:22:30Z) - Learning abstract structure for drawing by efficient motor program
induction [52.13961975752941]
我々は、人間が構造化された事前知識を迅速に取得する方法を研究するために、自然主義的な描画タスクを開発する。
一般化を支援する抽象的な描画手順を自然に学習していることが示される。
本稿では,これらの再利用可能な描画プログラムを学習者がどのように発見できるかのモデルを提案する。
論文 参考訳(メタデータ) (2020-08-08T13:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。