論文の概要: Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach
- arxiv url: http://arxiv.org/abs/2403.18258v1
- Date: Wed, 27 Mar 2024 05:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 18:16:31.417613
- Title: Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach
- Title(参考訳): モデルフォーミングアプローチによる生成クラスインクリメンタル学習性能の向上
- Authors: Taro Togo, Ren Togo, Keisuke Maeda, Takahiro Ogawa, Miki Haseyama,
- Abstract要約: 本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
- 参考スコア(独自算出の注目度): 50.36650300087987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a novel approach to Generative Class Incremental Learning (GCIL) by introducing the forgetting mechanism, aimed at dynamically managing class information for better adaptation to streaming data. GCIL is one of the hot topics in the field of computer vision, and this is considered one of the crucial tasks in society, specifically the continual learning of generative models. The ability to forget is a crucial brain function that facilitates continual learning by selectively discarding less relevant information for humans. However, in the field of machine learning models, the concept of intentionally forgetting has not been extensively investigated. In this study we aim to bridge this gap by incorporating the forgetting mechanisms into GCIL, thereby examining their impact on the models' ability to learn in continual learning. Through our experiments, we have found that integrating the forgetting mechanisms significantly enhances the models' performance in acquiring new knowledge, underscoring the positive role that strategic forgetting plays in the process of continual learning.
- Abstract(参考訳): 本研究では,クラス情報を動的に管理し,ストリーミングデータへの適応性を向上することを目的として,GCIL(Generative Class Incremental Learning)の新たなアプローチを提案する。
GCILはコンピュータビジョンの分野でホットなトピックの1つであり、これは社会における重要なタスクの1つ、特に生成モデルの継続的な学習であると考えられている。
忘れる能力は、人間にとってあまり関係のない情報を選択的に捨てることによって、継続的な学習を促進する重要な脳機能である。
しかし、機械学習モデルの分野では、意図的に忘れるという概念は広範に研究されていない。
本研究では,このギャップをGCILに組み込むことにより,モデルが連続学習において学習する能力に与える影響を検証し,そのギャップを埋めることを目的とする。
実験の結果, 学習過程において, 忘れるメカニズムの統合は, 新たな知識獲得におけるモデルの性能を著しく向上させることが明らかとなった。
関連論文リスト
- "Forgetting" in Machine Learning and Beyond: A Survey [0.0]
この調査は、さまざまな機械学習サブフィールドにまたがる、忘れることの利点とその応用に焦点を当てる。
本稿では,機械学習モデルへの忘れるメカニズムの統合に関する現状の課題,今後の方向性,倫理的考察について論じる。
論文 参考訳(メタデータ) (2024-05-31T05:10:30Z) - Machine Unlearning in Contrastive Learning [3.6218162133579694]
本稿では,機械学習を効果的に行うためのモデルトレーニングのための,勾配制約に基づく新しいアプローチを提案する。
提案手法は,コントラスト学習モデルだけでなく,教師付き学習モデルにも有能な性能を示す。
論文 参考訳(メタデータ) (2024-05-12T16:09:01Z) - Knowledge Distillation for Road Detection based on cross-model Semi-Supervised Learning [17.690698736544626]
本稿では,知識蒸留と半教師付き学習手法を組み合わせた統合的アプローチを提案する。
このハイブリッドアプローチは、大規模モデルのロバストな機能を活用して、大規模な未ラベルデータを効果的に活用する。
半教師付き学習に基づく知識蒸留(SSLKD)アプローチは,学生モデルの性能向上を示す。
論文 参考訳(メタデータ) (2024-02-07T22:50:47Z) - Mechanism of feature learning in deep fully connected networks and
kernel machines that recursively learn features [15.29093374895364]
我々は,ニューラルネットワークが勾配特徴を学習するメカニズムを同定し,特徴付ける。
私たちのアンザッツは、突発的な特徴の出現や単純さのバイアスなど、さまざまな深層学習現象に光を当てています。
この特徴学習機構の有効性を実証するため,古典的非機能学習モデルにおいて特徴学習を可能にする。
論文 参考訳(メタデータ) (2022-12-28T15:50:58Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Transferred Fusion Learning using Skipped Networks [0.0]
トランスファーラーニングとゼロショットラーニングは、既存のモデルを再利用したり、既存のモデルを拡張して、オブジェクト認識のタスクにおけるパフォーマンスを改善するのに役立つ。
本稿では,ネットワークが相互に学習する学生アーキテクチャを導入することにより,伝達学習のプロセスを増幅する新しいメカニズムを提案する。
論文 参考訳(メタデータ) (2020-11-11T16:41:55Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。