論文の概要: Forget Less by Learning Together through Concept Consolidation
- arxiv url: http://arxiv.org/abs/2601.01963v1
- Date: Mon, 05 Jan 2026 10:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.959907
- Title: Forget Less by Learning Together through Concept Consolidation
- Title(参考訳): 概念統合を通して一緒に学ぶことで教訓を忘れる
- Authors: Arjun Ramesh Kaushik, Naresh Kumar Devulapally, Vishnu Suresh Lokhande, Nalini Ratha, Venu Govindaraju,
- Abstract要約: カスタム拡散モデル(CDMs)は、生成過程をパーソナライズする優れた能力のために注目されている。
既存のCDMは、新しい概念を継続的に学習するときに破滅的な忘れ込みに悩まされる。
本稿では,並列性と順序に依存しない概念学習を可能にするFL2T(Forget Less by Learning Together)を提案する。
- 参考スコア(独自算出の注目度): 6.121904567143191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Custom Diffusion Models (CDMs) have gained significant attention due to their remarkable ability to personalize generative processes. However, existing CDMs suffer from catastrophic forgetting when continuously learning new concepts. Most prior works attempt to mitigate this issue under the sequential learning setting with a fixed order of concept inflow and neglect inter-concept interactions. In this paper, we propose a novel framework - Forget Less by Learning Together (FL2T) - that enables concurrent and order-agnostic concept learning while addressing catastrophic forgetting. Specifically, we introduce a set-invariant inter-concept learning module where proxies guide feature selection across concepts, facilitating improved knowledge retention and transfer. By leveraging inter-concept guidance, our approach preserves old concepts while efficiently incorporating new ones. Extensive experiments, across three datasets, demonstrates that our method significantly improves concept retention and mitigates catastrophic forgetting, highlighting the effectiveness of inter-concept catalytic behavior in incremental concept learning of ten tasks with at least 2% gain on average CLIP Image Alignment scores.
- Abstract(参考訳): カスタム拡散モデル(CDMs)は、生成過程をパーソナライズする優れた能力のために注目されている。
しかし、既存のCDMは、新しい概念を継続的に学習する際に破滅的な忘れ込みに悩まされる。
ほとんどの先行研究は、概念流入の順序を定め、概念間の相互作用を無視することで、シーケンシャルな学習環境下でこの問題を緩和しようと試みている。
本稿では,破滅的な忘れ事に対処しながら,同時かつ順序に依存しない概念学習を可能にする新しいフレームワーク,FL2T(Forget Less by Learning Together)を提案する。
具体的には,概念間の特徴選択をプロキシでガイドし,知識の保持と伝達を改善する,集合不変な概念間学習モジュールを提案する。
概念間ガイダンスを活用することで,新しい概念を効率的に取り入れつつ,古い概念を保存できる。
3つのデータセットにまたがる広範囲な実験により,我々の手法は概念保持を著しく改善し,破滅的忘れを軽減し,平均的なCLIP画像アライメントスコアに対して少なくとも2%のゲインを持つ10タスクの漸進的概念学習における概念間触媒行動の有効性を強調した。
関連論文リスト
- Forget Less by Learning from Parents Through Hierarchical Relationships [11.149407640112239]
本稿では、親子間学習機構を導入した新しいフレームワークFLLP(Forget Less by Learning from Parents)を提案する。
FLLPは事前の知識を保持し、新しい概念の継続的な統合をサポートする。
FLLPを3つの公開データセットと1つの総合ベンチマークで検証し、ロバスト性と一般化の両面で一貫した改善を示す。
論文 参考訳(メタデータ) (2026-01-05T08:35:36Z) - ConceptSplit: Decoupled Multi-Concept Personalization of Diffusion Models via Token-wise Adaptation and Attention Disentanglement [15.939409734710198]
本研究では,個別概念を学習と推論によって分割する新しいフレームワークであるConceptSplitを提案する。
まず,ToVA(Token-wise Value Adaptation)を導入する。
第2に,遠絡注意のための潜在最適化(LODA)を提案する。
論文 参考訳(メタデータ) (2025-10-06T10:22:46Z) - CURE: Controlled Unlearning for Robust Embeddings - Mitigating Conceptual Shortcuts in Pre-Trained Language Models [23.898244353656352]
CUREは,概念的ショートカットを系統的に切り離し,抑制するフレームワークである。
CUREは、IMDBのF1スコア+10ポイント、Yelpの+2ポイントを絶対的に改善する。
論文 参考訳(メタデータ) (2025-09-05T16:47:22Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - Language Guided Concept Bottleneck Models for Interpretable Continual Learning [62.09201360376577]
継続的な学習は、学習した情報を忘れることなく、学習システムが新しい知識を常に獲得することを目的としている。
既存のCLメソッドのほとんどは、モデルパフォーマンスを改善するための学習知識の保存に重点を置いている。
両課題に対処するために,言語指導型概念ボトルネックモデルを統合する新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2025-03-30T02:41:55Z) - Fine-Grained Erasure in Text-to-Image Diffusion-based Foundation Models [56.35484513848296]
FADE(Fine grained Attenuation for Diffusion Erasure)は、テキストから画像への生成モデルのための非学習アルゴリズムである。
関連する概念に最小限の影響で目標概念を排除し、最先端の手法よりも保持性能が12%向上した。
論文 参考訳(メタデータ) (2025-03-25T15:49:48Z) - How to Continually Adapt Text-to-Image Diffusion Models for Flexible Customization? [91.49559116493414]
本稿では,CIDM(Concept-Incremental Text-to-image Diffusion Model)を提案する。
破滅的な忘れと概念の無視を解決し、新しいカスタマイズタスクを概念的な方法で学習する。
実験により、CIDMが既存のカスタム拡散モデルを上回ることが確認された。
論文 参考訳(メタデータ) (2024-10-23T06:47:29Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Mnemonics Training: Multi-Class Incremental Learning without Forgetting [131.1065577648532]
マルチクラスインクリメンタルラーニング(MCIL)は、従来の概念に基づいてトレーニングされたモデルを漸進的に更新することで、新しい概念を学習することを目的としている。
本稿では,前例をパラメータ化し,エンドツーエンドで最適化できるようにする,新しい,かつ自動的なフレームワークを提案する。
CIFAR-100, ImageNet-Subset, ImageNet の3つのMCILベンチマークで大規模な実験を行い, メニーモニック・エスペクタの使用が最先端をはるかに上回ることを示す。
論文 参考訳(メタデータ) (2020-02-24T12:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。