論文の概要: SATHUR: Self Augmenting Task Hallucinal Unified Representation for
Generalized Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2311.18630v1
- Date: Sun, 13 Aug 2023 00:17:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:25:33.377526
- Title: SATHUR: Self Augmenting Task Hallucinal Unified Representation for
Generalized Class Incremental Learning
- Title(参考訳): sathur: 一般化クラスインクリメンタル学習のための自己強化タスク幻覚統一表現
- Authors: Sathursan Kanagarajah, Thanuja Ambegoda, Ranga Rodrigo
- Abstract要約: クラスインクリメンタルラーニング(CIL)は、従来のクラスを忘れずに新しいクラスを学習する人間の能力にインスパイアされている。
一般化クラスインクリメンタルラーニング(GCIL)は、各段階的なステップがより現実的に構造化される場所である。
本研究は,自己拡張タスク・ハロキナル統一表現(SATHUR)を紹介する。
- 参考スコア(独自算出の注目度): 1.9051805625956872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class Incremental Learning (CIL) is inspired by the human ability to learn
new classes without forgetting previous ones. CIL becomes more challenging in
real-world scenarios when the samples in each incremental step are imbalanced.
This creates another branch of problem, called Generalized Class Incremental
Learning (GCIL) where each incremental step is structured more realistically.
Grow When Required (GWR) network, a type of Self-Organizing Map (SOM),
dynamically create and remove nodes and edges for adaptive learning. GWR
performs incremental learning from feature vectors extracted by a Convolutional
Neural Network (CNN), which acts as a feature extractor. The inherent ability
of GWR to form distinct clusters, each corresponding to a class in the feature
vector space, regardless of the order of samples or class imbalances, is well
suited to achieving GCIL. To enhance GWR's classification performance, a
high-quality feature extractor is required. However, when the convolutional
layers are adapted at each incremental step, the GWR nodes corresponding to
prior knowledge are subject to near-invalidation. This work introduces the Self
Augmenting Task Hallucinal Unified Representation (SATHUR), which
re-initializes the GWR network at each incremental step, aligning it with the
current feature extractor. Comprehensive experimental results demonstrate that
our proposed method significantly outperforms other state-of-the-art GCIL
methods on CIFAR-100 and CORe50 datasets.
- Abstract(参考訳): クラスインクリメンタル学習(cil)は、以前のクラスを忘れずに新しいクラスを学習できる人間の能力にインスパイアされている。
インクリメンタルステップのサンプルが不均衡にある場合、現実のシナリオではcilがより困難になる。
これにより、GCIL(Generalized Class Incremental Learning)と呼ばれる別の問題が発生し、各段階がより現実的に構造化される。
Grow When Required (GWR) ネットワークは,適応学習のためのノードやエッジを動的に生成,削除する,自己組織化マップの一種である。
GWRは、特徴抽出器として機能する畳み込みニューラルネットワーク(CNN)によって抽出された特徴ベクトルから漸進的に学習する。
GWRが異なるクラスタを形成する固有の能力は、それぞれ、サンプルの順序やクラス不均衡に関わらず、特徴ベクトル空間のクラスに対応するもので、GCILを達成するのに適している。
GWRの分類性能を高めるためには,高品質な特徴抽出器が必要である。
しかし、各段階に畳み込み層を適応させると、先行知識に対応するGWRノードがほぼ無効となる。
本研究は,GWRネットワークを段階的に再起動し,現在の特徴抽出器と整合させる自己拡張タスクHAL(Self Augmenting Task Hallucinal Unified Representation)を導入する。
CIFAR-100 および CORe50 データセット上で,提案手法が他の最先端 GCIL 手法よりも優れていることを示す。
関連論文リスト
- Inductive Graph Few-shot Class Incremental Learning [34.19083477893245]
本稿では,新しいノードを持つ新しいクラスを継続的に学習するインダクティブGFSCILを提案する。
トランスダクティブGFSCILと比較して、インダクティブ設定は、アクセス不能な先行データにより破滅的忘れを悪化させる。
そこで我々はTopology-based class Augmentation and Prototype calibrationと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T00:06:20Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Self-supervised Semi-implicit Graph Variational Auto-encoders with
Masking [18.950919307926824]
自己教師付き変分グラフオートエンコーダ(VGAE)のファミリに基づくSeeeGeraモデルを提案する。
SeeGeraは、エンコーダのノードと機能の両方を同時に埋め込み、デコーダのリンクと機能の両方を再構築する。
われわれは、SeeGeraと9つの最先端ライバルを比較した広範な実験を行っている。
論文 参考訳(メタデータ) (2023-01-29T15:00:43Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Exploiting Explainable Metrics for Augmented SGD [43.00691899858408]
最適化下での学習が実際にどのように機能するか、また、特定の戦略が他の方法よりも優れている理由について、未解決の疑問がいくつかある。
ネットワーク層内の冗長な情報を計測する新しい説明可能性指標を提案する。
次に、これらの指標を利用して、各レイヤの学習率を適応的に調整し、一般化性能を向上させることにより、グラディエント・ディフレッシュ(SGD)を増大させる。
論文 参考訳(メタデータ) (2022-03-31T00:16:44Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - An evidential classifier based on Dempster-Shafer theory and deep
learning [6.230751621285322]
Dempster-Shafer(DS)理論に基づく新しい分類システムと、集合値分類のための畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
画像認識,信号処理,セマンティック-リレーションシップ分類タスクに関する実験では,深部CNN,DS層,期待されるユーティリティ層の組み合わせにより,分類精度の向上が図られている。
論文 参考訳(メタデータ) (2021-03-25T01:29:05Z) - Gradient Coding with Dynamic Clustering for Straggler-Tolerant
Distributed Learning [55.052517095437]
勾配降下(GD)は、複数の労働者にデータセットを分散することで学習タスクの並列化に広く用いられている。
分散同期gdにおけるイテレーション完了時間ごとの重要なパフォーマンスボトルネックは$straggling$ workersである。
コード化された分散技術は、最近ストラグラーを緩和し、労働者に冗長な計算を割り当てることでgdイテレーションを高速化するために導入された。
本稿では,従来のトラグリング動作に依存する可能性のあるコードの中から,冗長なデータを労働者に割り当てて選択する動的GC方式を提案する。
論文 参考訳(メタデータ) (2021-03-01T18:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。