論文の概要: Convolutional Cobweb: A Model of Incremental Learning from 2D Images
- arxiv url: http://arxiv.org/abs/2201.06740v1
- Date: Tue, 18 Jan 2022 04:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 01:35:49.669302
- Title: Convolutional Cobweb: A Model of Incremental Learning from 2D Images
- Title(参考訳): Convolutional Cobweb: 2次元画像からのインクリメンタル学習モデル
- Authors: Christopher J. MacLellan and Harshil Thakur
- Abstract要約: 本稿では,視覚画像のラベルを漸進的に学習し,予測できる新しい概念形成手法を提案する。
我々は、MNISTの桁認識タスクの漸進的な変化に適用することで、この新しいアプローチを実験的に評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new concept formation approach that supports the
ability to incrementally learn and predict labels for visual images. This work
integrates the idea of convolutional image processing, from computer vision
research, with a concept formation approach that is based on psychological
studies of how humans incrementally form and use concepts. We experimentally
evaluate this new approach by applying it to an incremental variation of the
MNIST digit recognition task. We compare its performance to Cobweb, a concept
formation approach that does not support convolutional processing, as well as
two convolutional neural networks that vary in the complexity of their
convolutional processing. This work represents a first step towards unifying
modern computer vision ideas with classical concept formation research.
- Abstract(参考訳): 本稿では,視覚画像のラベルをインクリメンタルに学習し,予測することのできる新しい概念形成手法を提案する。
この研究は、コンピュータビジョン研究からの畳み込み画像処理の概念と、人間が概念を漸進的に形成し、使用する方法に関する心理学的研究に基づく概念形成アプローチを統合する。
我々は、MNISTの桁認識タスクの漸進的な変化に適用することで、この新しいアプローチを実験的に評価する。
畳み込み処理をサポートしない概念形成アプローチであるcobwebと、畳み込み処理の複雑さが異なる2つの畳み込みニューラルネットワークとの比較を行った。
この研究は、現代のコンピュータビジョンのアイデアと古典的な概念形成研究を統合するための第一歩である。
関連論文リスト
- Explainable Concept Generation through Vision-Language Preference Learning [7.736445799116692]
概念に基づく説明は、ポストホック後のディープニューラルネットワークを説明するための一般的な選択肢となっている。
視覚言語生成モデルを微調整する強化学習に基づく選好最適化アルゴリズムを考案する。
提案手法の有効性と信頼性に加えて,ニューラルネットワーク解析の診断ツールとしての有用性を示す。
論文 参考訳(メタデータ) (2024-08-24T02:26:42Z) - Restyling Unsupervised Concept Based Interpretable Networks with Generative Models [14.604305230535026]
本稿では,事前学習された生成モデルの潜在空間に概念特徴をマッピングすることに依存する新しい手法を提案する。
本手法の有効性を,解釈可能な予測ネットワークの精度,再現性,学習概念の忠実性,一貫性の観点から定量的に検証した。
論文 参考訳(メタデータ) (2024-07-01T14:39:41Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - Concept Evolution in Deep Learning Training: A Unified Interpretation
Framework and Discoveries [45.88354622464973]
ConceptEvoはディープニューラルネットワーク(DNN)のための統合解釈フレームワーク
それは、訓練中に学んだ概念の発端と進化を明らかにします。
これは、ConvNeXtのような現代のDNNアーキテクチャと、VGGsやInceptionV3のような古典的なDNNの両方に適用できる。
論文 参考訳(メタデータ) (2022-03-30T17:12:18Z) - Interactive Disentanglement: Learning Concepts by Interacting with their
Prototype Representations [15.284688801788912]
本稿では,ニューラル概念学習者の潜伏空間の理解と改訂のためのプロトタイプ表現の利点を示す。
この目的のために,対話型概念スワッピングネットワーク(iCSN)を導入する。
iCSNは、ペア画像の潜在表現を交換することで、概念情報を特定のプロトタイプスロットにバインドすることを学ぶ。
論文 参考訳(メタデータ) (2021-12-04T09:25:40Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Comparative evaluation of CNN architectures for Image Caption Generation [1.2183405753834562]
2つの人気のある画像キャプチャ生成フレームワークで17種類の畳み込みニューラルネットワークを評価した。
我々は、畳み込みニューラルネットワークのモデルの複雑さをパラメータ数で測定し、オブジェクト認識タスクにおけるモデルの精度は、必ずしも画像キャプション生成タスクの機能抽出に対する効果と相関するとは限らないことを観察する。
論文 参考訳(メタデータ) (2021-02-23T05:43:54Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - A Competence-aware Curriculum for Visual Concepts Learning via Question
Answering [95.35905804211698]
本稿では,視覚概念学習のための質問応答型カリキュラムを提案する。
視覚概念を学習するためのニューラルシンボリックな概念学習者と学習プロセスを導くための多次元項目応答理論(mIRT)モデルを設計する。
CLEVRの実験結果から,コンピテンスを意識したカリキュラムにより,提案手法は最先端のパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2020-07-03T05:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。