論文の概要: A Competence-aware Curriculum for Visual Concepts Learning via Question
Answering
- arxiv url: http://arxiv.org/abs/2007.01499v2
- Date: Mon, 27 Jul 2020 21:57:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-14 05:39:57.783975
- Title: A Competence-aware Curriculum for Visual Concepts Learning via Question
Answering
- Title(参考訳): 質問応答による視覚概念学習のためのコンピテンス対応カリキュラム
- Authors: Qing Li, Siyuan Huang, Yining Hong, Song-Chun Zhu
- Abstract要約: 本稿では,視覚概念学習のための質問応答型カリキュラムを提案する。
視覚概念を学習するためのニューラルシンボリックな概念学習者と学習プロセスを導くための多次元項目応答理論(mIRT)モデルを設計する。
CLEVRの実験結果から,コンピテンスを意識したカリキュラムにより,提案手法は最先端のパフォーマンスを実現することが示された。
- 参考スコア(独自算出の注目度): 95.35905804211698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can progressively learn visual concepts from easy to hard questions.
To mimic this efficient learning ability, we propose a competence-aware
curriculum for visual concept learning in a question-answering manner.
Specifically, we design a neural-symbolic concept learner for learning the
visual concepts and a multi-dimensional Item Response Theory (mIRT) model for
guiding the learning process with an adaptive curriculum. The mIRT effectively
estimates the concept difficulty and the model competence at each learning step
from accumulated model responses. The estimated concept difficulty and model
competence are further utilized to select the most profitable training samples.
Experimental results on CLEVR show that with a competence-aware curriculum, the
proposed method achieves state-of-the-art performances with superior data
efficiency and convergence speed. Specifically, the proposed model only uses
40% of training data and converges three times faster compared with other
state-of-the-art methods.
- Abstract(参考訳): 人間は難しい質問から視覚概念を徐々に学習することができる。
この効率的な学習能力を模倣するために,視覚概念学習の能力認識カリキュラムを提案する。
具体的には、視覚概念を学習するためのニューラルシンボリックな概念学習者と、学習過程を適応的なカリキュラムで導くための多次元項目応答理論(mIRT)モデルを設計する。
mIRTは、蓄積されたモデル応答から各学習ステップにおける概念難易度とモデル能力を効果的に推定する。
推定概念難易度とモデル能力を利用して、最も収益性の高いトレーニングサンプルを選択する。
CLEVRによる実験結果から,提案手法は,データ効率と収束速度の優れた最先端性能を実現する。
具体的には、提案モデルはトレーニングデータの40%しか使用せず、他の最先端手法に比べて3倍高速に収束する。
関連論文リスト
- VCM: Vision Concept Modeling Based on Implicit Contrastive Learning with Vision-Language Instruction Fine-Tuning [19.116047583231452]
LVLM(Large Vision-Language Models)は、インボディードインテリジェンスのような現実世界のAIタスクにおいて重要な要素である。
現在のLVLMは、画像全体をトークンレベルで処理します。
エンド・ツー・エンドのビジュアル・コンセプト・モデリング・フレームワークであるVCMを提案する。
論文 参考訳(メタデータ) (2025-04-28T09:39:07Z) - Language Guided Concept Bottleneck Models for Interpretable Continual Learning [62.09201360376577]
継続的な学習は、学習した情報を忘れることなく、学習システムが新しい知識を常に獲得することを目的としている。
既存のCLメソッドのほとんどは、モデルパフォーマンスを改善するための学習知識の保存に重点を置いている。
両課題に対処するために,言語指導型概念ボトルネックモデルを統合する新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2025-03-30T02:41:55Z) - A Concept-Centric Approach to Multi-Modality Learning [3.828996378105142]
我々は、より効率的なAIシステムを構築するために、新しいマルチモーダリティ学習フレームワークを導入する。
我々のフレームワークは、より効率的な学習曲線を示しながら、ベンチマークモデルと同等に達成する。
論文 参考訳(メタデータ) (2024-12-18T13:40:21Z) - KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Restyling Unsupervised Concept Based Interpretable Networks with Generative Models [14.604305230535026]
本稿では,事前学習された生成モデルの潜在空間に概念特徴をマッピングすることに依存する新しい手法を提案する。
本手法の有効性を,解釈可能な予測ネットワークの精度,再現性,学習概念の忠実性,一貫性の観点から定量的に検証した。
論文 参考訳(メタデータ) (2024-07-01T14:39:41Z) - Enhancing Large Vision Language Models with Self-Training on Image Comprehension [131.14381425260706]
本稿では、画像理解に特化して自己学習アプローチを強調する自己学習 on Image (STIC)を紹介する。
まず、ラベルのない画像を用いて、画像記述の好みを自己構築する。
抽出した視覚情報に対する推論をさらに自己改善するため,既存の命令調整データのごく一部をモデルに再利用する。
論文 参考訳(メタデータ) (2024-05-30T05:53:49Z) - Curriculum Learning for Graph Neural Networks: A Multiview
Competence-based Approach [12.335698325757491]
本稿では,グラフ複雑性形式に基づく新しいアプローチを導入することで,カリキュラム学習の新しい視点を提案する。
提案手法は,グラフの難易度基準のきめ細かいスペクトルを組み込んだグラフニューラルネットワークのカリキュラム学習において,既存の研究を推し進めるものである。
論文 参考訳(メタデータ) (2023-07-17T21:33:35Z) - Collaboration of Pre-trained Models Makes Better Few-shot Learner [49.89134194181042]
少ないショット分類では、限られた訓練画像からのみ、一般化された表現を学習するために、ディープニューラルネットワークが必要である。
最近、CLIPベースの手法は、対照的な言語イメージ事前トレーニングの恩恵を受け、有望な数ショットのパフォーマンスを示している。
我々は,様々な事前学習パラダイムから様々な事前知識を取り入れた事前学習モデルのコラボレーションであるCoMoを提案する。
論文 参考訳(メタデータ) (2022-09-25T16:23:12Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - RLTutor: Reinforcement Learning Based Adaptive Tutoring System by
Modeling Virtual Student with Fewer Interactions [10.34673089426247]
本稿では,学生の仮想モデルを構築し,指導戦略を最適化する枠組みを提案する。
この結果は,eラーニングシステムにおける理論的指導最適化と実践的応用のバッファとして機能する。
論文 参考訳(メタデータ) (2021-07-31T15:42:03Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。