論文の概要: Knowledge Graph Enhanced Generative Multi-modal Models for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2503.18403v1
- Date: Mon, 24 Mar 2025 07:20:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:39:46.938942
- Title: Knowledge Graph Enhanced Generative Multi-modal Models for Class-Incremental Learning
- Title(参考訳): クラス増分学習のための知識グラフ強化多モードモデル
- Authors: Xusheng Cao, Haori Lu, Linlan Huang, Fei Yang, Xialei Liu, Ming-Ming Cheng,
- Abstract要約: 学習過程を通じて進化する知識グラフを構築する知識グラフ強化多モードモデル(KG-GMM)を導入する。
テスト中,生成されたテキスト内の関係を解析し,特定のカテゴリを特定する知識グラフ拡張推論手法を提案する。
- 参考スコア(独自算出の注目度): 51.0864247376786
- License:
- Abstract: Continual learning in computer vision faces the critical challenge of catastrophic forgetting, where models struggle to retain prior knowledge while adapting to new tasks. Although recent studies have attempted to leverage the generalization capabilities of pre-trained models to mitigate overfitting on current tasks, models still tend to forget details of previously learned categories as tasks progress, leading to misclassification. To address these limitations, we introduce a novel Knowledge Graph Enhanced Generative Multi-modal model (KG-GMM) that builds an evolving knowledge graph throughout the learning process. Our approach utilizes relationships within the knowledge graph to augment the class labels and assigns different relations to similar categories to enhance model differentiation. During testing, we propose a Knowledge Graph Augmented Inference method that locates specific categories by analyzing relationships within the generated text, thereby reducing the loss of detailed information about old classes when learning new knowledge and alleviating forgetting. Experiments demonstrate that our method effectively leverages relational information to help the model correct mispredictions, achieving state-of-the-art results in both conventional CIL and few-shot CIL settings, confirming the efficacy of knowledge graphs at preserving knowledge in the continual learning scenarios.
- Abstract(参考訳): コンピュータビジョンにおける継続的な学習は、モデルが新しいタスクに適応しながら事前の知識を維持するのに苦労する破滅的な忘れ込みという重要な課題に直面している。
近年の研究では、事前訓練されたモデルの一般化能力を活用して、現在のタスクに対する過度な適合を緩和しようとしているが、モデルはまだ、タスクが進行するにつれて学習済みのカテゴリの詳細を忘れてしまい、誤分類につながる傾向にある。
これらの制約に対処するために,学習プロセス全体を通して進化する知識グラフを構築する新しい知識グラフ強化多モードモデル(KG-GMM)を導入する。
提案手法では,知識グラフ内の関係を利用してクラスラベルを拡大し,類似したカテゴリに異なる関係を割り当て,モデルの微分を高める。
テスト中、生成されたテキスト内の関係を分析して特定のカテゴリを特定する知識グラフ拡張推論手法を提案する。
実験により,本手法は関係情報を有効活用し,従来のCILおよび数ショットCIL設定の精度向上に寄与し,継続学習シナリオにおける知識保存における知識グラフの有効性を確認した。
関連論文リスト
- Leveraging Hierarchical Taxonomies in Prompt-based Continual Learning [41.13568563835089]
深層学習モデルの学習において,情報の整理・接続という人間の習慣を適用することが効果的な戦略として有効であることがわかった。
本稿では,モデルがより挑戦的な知識領域に集中するように促す新たな正規化損失関数を提案する。
論文 参考訳(メタデータ) (2024-10-06T01:30:40Z) - Graph Memory Learning: Imitating Lifelong Remembering and Forgetting of Brain Networks [31.554027786868815]
本稿では,BGML(Brain-inspired Graph Memory Learning)というグラフメモリ学習の新たな概念を紹介する。
BGMLは、記憶と忘れの潜在的な衝突を軽減するために、特徴グラフの粒度学習に根ざした多階層的階層的漸進学習機構を組み込んでいる。
さらに,新たに追加されるインクリメンタル情報における信頼できない構造の問題に対処するために,情報自己評価のオーナシップ機構を提案する。
論文 参考訳(メタデータ) (2024-07-27T05:50:54Z) - Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - Knowledge Distillation via Token-level Relationship Graph [12.356770685214498]
token-level Relation Graph (TRG) を用いた知識蒸留法を提案する。
TRGを利用することで、教師モデルから高レベルの意味情報を効果的にエミュレートすることができる。
我々は,提案手法の有効性を,いくつかの最先端手法に対して評価する実験を行った。
論文 参考訳(メタデータ) (2023-06-20T08:16:37Z) - Semantic Enhanced Knowledge Graph for Large-Scale Zero-Shot Learning [74.6485604326913]
我々は、専門知識とカテゴリ意味相関の両方を含む新しい意味強化知識グラフを提供する。
知識グラフの情報伝達のために,Residual Graph Convolutional Network (ResGCN)を提案する。
大規模画像Net-21KデータセットとAWA2データセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-26T13:18:36Z) - KGLM: Integrating Knowledge Graph Structure in Language Models for Link
Prediction [0.0]
我々は、異なるエンティティと関係型を区別することを学ぶ新しいエンティティ/リレーション埋め込み層を導入する。
知識グラフから抽出したトリプルを用いて、この追加埋め込み層を用いて言語モデルをさらに事前学習し、続いて標準微調整フェーズにより、ベンチマークデータセット上のリンク予測タスクに対して、新しい最先端のパフォーマンスが設定されることを示す。
論文 参考訳(メタデータ) (2022-11-04T20:38:12Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Tucker decomposition-based Temporal Knowledge Graph Completion [35.56360622521721]
次数4テンソルのタッカー分解にインスパイアされた時間知識グラフ補完のための新しいテンソル分解モデルを構築する。
提案モデルは完全に表現力のあるモデルであることが実証され、いくつかの公開ベンチマークに対して最先端の結果が報告される。
論文 参考訳(メタデータ) (2020-11-16T07:05:52Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。