論文の概要: Forget Less by Learning from Parents Through Hierarchical Relationships
- arxiv url: http://arxiv.org/abs/2601.01892v1
- Date: Mon, 05 Jan 2026 08:35:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.863798
- Title: Forget Less by Learning from Parents Through Hierarchical Relationships
- Title(参考訳): 階層的関係を通して親から学ぶことによる小ささの回避
- Authors: Arjun Ramesh Kaushik, Naresh Kumar Devulapally, Vishnu Suresh Lokhande, Nalini K. Ratha, Venu Govindaraju,
- Abstract要約: 本稿では、親子間学習機構を導入した新しいフレームワークFLLP(Forget Less by Learning from Parents)を提案する。
FLLPは事前の知識を保持し、新しい概念の継続的な統合をサポートする。
FLLPを3つの公開データセットと1つの総合ベンチマークで検証し、ロバスト性と一般化の両面で一貫した改善を示す。
- 参考スコア(独自算出の注目度): 11.149407640112239
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Custom Diffusion Models (CDMs) offer impressive capabilities for personalization in generative modeling, yet they remain vulnerable to catastrophic forgetting when learning new concepts sequentially. Existing approaches primarily focus on minimizing interference between concepts, often neglecting the potential for positive inter-concept interactions. In this work, we present Forget Less by Learning from Parents (FLLP), a novel framework that introduces a parent-child inter-concept learning mechanism in hyperbolic space to mitigate forgetting. By embedding concept representations within a Lorentzian manifold, naturally suited to modeling tree-like hierarchies, we define parent-child relationships in which previously learned concepts serve as guidance for adapting to new ones. Our method not only preserves prior knowledge but also supports continual integration of new concepts. We validate FLLP on three public datasets and one synthetic benchmark, showing consistent improvements in both robustness and generalization.
- Abstract(参考訳): カスタム拡散モデル(CDM)は、生成モデリングにおけるパーソナライズに優れた能力を提供するが、新しい概念を逐次学習する際に破滅的な忘れ方に弱いままである。
既存のアプローチは主に概念間の干渉を最小限にすることに焦点を当てており、しばしばポジティブな概念間相互作用の可能性を無視している。
本研究では,親子間学習機構を双曲空間に導入し,忘れを軽減させる新しい枠組みである,親子間学習(FLLP)を提案する。
木のような階層をモデル化するのに自然に適したローレンツ多様体に概念表現を埋め込むことで、以前に学んだ概念が新しい概念に適応するためのガイダンスとなる親子関係を定義する。
本手法は,事前知識の保存だけでなく,新たな概念の継続的な統合も支援している。
FLLPを3つの公開データセットと1つの総合ベンチマークで検証し、ロバスト性と一般化の両面で一貫した改善を示す。
関連論文リスト
- Forget Less by Learning Together through Concept Consolidation [6.121904567143191]
カスタム拡散モデル(CDMs)は、生成過程をパーソナライズする優れた能力のために注目されている。
既存のCDMは、新しい概念を継続的に学習するときに破滅的な忘れ込みに悩まされる。
本稿では,並列性と順序に依存しない概念学習を可能にするFL2T(Forget Less by Learning Together)を提案する。
論文 参考訳(メタデータ) (2026-01-05T10:14:16Z) - FaCT: Faithful Concept Traces for Explaining Neural Network Decisions [56.796533084868884]
ディープネットワークは、幅広いタスクで顕著なパフォーマンスを示しているが、それらの機能に関するグローバルな概念レベルの理解は、依然として重要な課題である。
本稿では,概念に基づく説明の忠実さを強調し,モデル独立な機械的概念説明を用いた新しいモデルを提案する。
私たちの概念はクラス間で共有され、あらゆるレイヤから、ロジットへの貢献と入力-視覚化を忠実にトレースすることができます。
論文 参考訳(メタデータ) (2025-10-29T13:35:46Z) - FACE: Faithful Automatic Concept Extraction [4.417419748257645]
FACE(Faithful Automatic Concept extract)は、KL(Kullback-Leibler)の発散正規化項で非負行列因子化(NMF)を強化する新しいフレームワークである。
我々は,KL分散の最小化が予測分布の偏差を制限し,学習された概念空間における忠実な局所線型性を促進することを理論的保証する。
論文 参考訳(メタデータ) (2025-10-13T17:44:45Z) - Towards Better Generalization and Interpretability in Unsupervised Concept-Based Models [9.340843984411137]
本稿では、LCBM(Learningable Concept-Based Model)という、画像分類のための教師なし概念ベースモデルを提案する。
我々はLCBMが既存の教師なし概念ベースモデルを上回る一般化能力を示し、ブラックボックスモデルの性能とほぼ一致することを示した。
概念埋め込みの利用にもかかわらず、我々は概念の局所的な線形結合によるモデル解釈可能性を維持している。
論文 参考訳(メタデータ) (2025-06-02T16:26:41Z) - Fine-Grained Erasure in Text-to-Image Diffusion-based Foundation Models [56.35484513848296]
FADE(Fine grained Attenuation for Diffusion Erasure)は、テキストから画像への生成モデルのための非学習アルゴリズムである。
関連する概念に最小限の影響で目標概念を排除し、最先端の手法よりも保持性能が12%向上した。
論文 参考訳(メタデータ) (2025-03-25T15:49:48Z) - Walking the Web of Concept-Class Relationships in Incrementally Trained Interpretable Models [25.84386438333865]
概念とクラスは複雑な関係の網を形成しており、それは劣化しやすく、経験を通じて保存および拡張する必要がある。
本研究では,マルチモーダルな概念を用いて,学習可能なパラメータの数を増やすことなく分類を行う新しい手法である MuCIL を提案する。
論文 参考訳(メタデータ) (2025-02-27T18:59:29Z) - SYNTHIA: Novel Concept Design with Affordance Composition [114.19366716161655]
所望の価格に基づいて,新規で機能的なコヒーレントなデザインを生成するためのフレームワークであるSynTHIAを紹介する。
我々は,我々のオントロジーに基づくカリキュラム学習手法を開発し,細粒度T2Iモデルと対比して,段階的に手頃な構成を学習する。
実験の結果,SynTHIAは最先端のT2Iモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-02-25T02:54:11Z) - How to Continually Adapt Text-to-Image Diffusion Models for Flexible Customization? [91.49559116493414]
本稿では,CIDM(Concept-Incremental Text-to-image Diffusion Model)を提案する。
破滅的な忘れと概念の無視を解決し、新しいカスタマイズタスクを概念的な方法で学習する。
実験により、CIDMが既存のカスタム拡散モデルを上回ることが確認された。
論文 参考訳(メタデータ) (2024-10-23T06:47:29Z) - A Self-explaining Neural Architecture for Generalizable Concept Learning [29.932706137805713]
現在,SOTA の概念学習アプローチは,概念の忠実さの欠如と,概念の相互運用の限界という2つの大きな問題に悩まされている。
ドメイン間の概念学習のための新しい自己説明型アーキテクチャを提案する。
提案手法は,現在広く使われている4つの実世界のデータセットに対するSOTA概念学習手法に対して有効であることを示す。
論文 参考訳(メタデータ) (2024-05-01T06:50:18Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。