論文の概要: CIP-Net: Continual Interpretable Prototype-based Network
- arxiv url: http://arxiv.org/abs/2512.07981v1
- Date: Mon, 08 Dec 2025 19:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.699524
- Title: CIP-Net: Continual Interpretable Prototype-based Network
- Title(参考訳): CIP-Net:Continuous Interpretable Prototype-based Network
- Authors: Federico Di Valerio, Michela Proietti, Alessio Ragno, Roberto Capobianco,
- Abstract要約: 継続的な学習は、モデルが既に学んだことを忘れずに、時間とともに新しいタスクを学ぶことを制約します。
CIP-Netは、連続学習用に設計された、模範のない自己説明可能なプロトタイプベースモデルである。
- 参考スコア(独自算出の注目度): 3.0098885383612104
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual learning constrains models to learn new tasks over time without forgetting what they have already learned. A key challenge in this setting is catastrophic forgetting, where learning new information causes the model to lose its performance on previous tasks. Recently, explainable AI has been proposed as a promising way to better understand and reduce forgetting. In particular, self-explainable models are useful because they generate explanations during prediction, which can help preserve knowledge. However, most existing explainable approaches use post-hoc explanations or require additional memory for each new task, resulting in limited scalability. In this work, we introduce CIP-Net, an exemplar-free self-explainable prototype-based model designed for continual learning. CIP-Net avoids storing past examples and maintains a simple architecture, while still providing useful explanations and strong performance. We demonstrate that CIPNet achieves state-of-the-art performances compared to previous exemplar-free and self-explainable methods in both task- and class-incremental settings, while bearing significantly lower memory-related overhead. This makes it a practical and interpretable solution for continual learning.
- Abstract(参考訳): 継続的な学習は、モデルが既に学んだことを忘れずに、時間とともに新しいタスクを学ぶことを制約します。
この設定における重要な課題は破滅的な忘れである。そこでは、新しい情報を学ぶことで、前のタスクでモデルのパフォーマンスが低下する。
近年、忘れをよりよく理解し、軽減するための有望な方法として、説明可能なAIが提案されている。
特に、自己説明可能なモデルは、予測中に説明を生成し、知識の保存に役立つため、有用である。
しかし、既存の説明可能なアプローチのほとんどは、ポストホックな説明を使うか、新しいタスクごとに追加のメモリを必要とするため、スケーラビリティが制限される。
本稿では,CIP-Netについて紹介する。CIP-Netは,連続学習用に設計された,模範のない自己説明可能なプロトタイプベースモデルである。
CIP-Netは過去の例の保存を回避し、シンプルなアーキテクチャを維持しながら、有用な説明と強力なパフォーマンスを提供している。
我々は、CIPNetが、タスクおよびクラスインクリメンタル設定の両方において、前例のない、自己説明可能なメソッドと比較して、メモリ関連のオーバーヘッドを著しく低く抑えながら、最先端のパフォーマンスを達成することを実証した。
これにより、継続的な学習のための実用的で解釈可能なソリューションとなる。
関連論文リスト
- C-SWAP: Explainability-Aware Structured Pruning for Efficient Neural Networks Compression [4.10373648742522]
プルーニング(英: Pruning)は、モデル構造におけるスパーシティを促進する技術である。
本稿では,説明可能な深層学習に依存する新しい一発プルーニングフレームワークを提案する。
提案手法はモデルサイズを大幅に削減し,性能への影響を最小限に抑え,微調整を不要とした。
論文 参考訳(メタデータ) (2025-10-21T13:40:11Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - Harnessing the Power of Explanations for Incremental Training: A
LIME-Based Approach [6.244905619201076]
この研究では、モデル説明がフィードフォワードトレーニングにフィードバックされ、モデルをより一般化するのに役立つ。
このフレームワークは、シーケンシャルなテストセットのパフォーマンスを維持するために、Elastic Weight Consolidation (EWC)によるカスタム重み付き損失を取り入れている。
提案したカスタムトレーニング手順は、インクリメンタルラーニングセットアップのすべてのフェーズにおいて、0.5%から1.5%までの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2022-11-02T18:16:17Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Continually Learning Self-Supervised Representations with Projected
Functional Regularization [39.92600544186844]
近年の自己教師あり学習手法は高品質な画像表現を学習でき、教師ありの手法でギャップを埋めている。
これらの手法は、新たな知識を段階的に取得することができない -- 実際、主にIDデータによる事前学習フェーズとしてのみ使用される。
従来の知識を忘れないように,機能正規化の利用を提案する。
論文 参考訳(メタデータ) (2021-12-30T11:59:23Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。