論文の概要: Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition
- arxiv url: http://arxiv.org/abs/2006.07152v1
- Date: Fri, 12 Jun 2020 13:04:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 01:54:48.671514
- Title: Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition
- Title(参考訳): move-to-data:deep cnnを用いた新しい連続学習アプローチ、画像クラス認識への応用
- Authors: Miltiadis Poursanidis (LaBRI), Jenny Benois-Pineau (LaBRI), Akka
Zemmari (LaBRI), Boris Mansenca (LaBRI), Aymar de Rugy (INCIA)
- Abstract要約: トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many real-life tasks of application of supervised learning approaches, all
the training data are not available at the same time. The examples are lifelong
image classification or recognition of environmental objects during interaction
of instrumented persons with their environment, enrichment of an
online-database with more images. It is necessary to pre-train the model at a
"training recording phase" and then adjust it to the new coming data. This is
the task of incremental/continual learning approaches. Amongst different
problems to be solved by these approaches such as introduction of new
categories in the model, refining existing categories to sub-categories and
extending trained classifiers over them, ... we focus on the problem of
adjusting pre-trained model with new additional training data for existing
categories. We propose a fast continual learning layer at the end of the
neuronal network. Obtained results are illustrated on the opensource CIFAR
benchmark dataset. The proposed scheme yields similar performances as
retraining but with drastically lower computational cost.
- Abstract(参考訳): 教師付き学習アプローチの適用の多くの実生活タスクでは、すべてのトレーニングデータが同時に利用できない。
例えば、計測対象と環境との相互作用において、生涯にわたる画像分類や環境オブジェクトの認識、より多くの画像を含むオンラインデータベースの強化などである。
モデルを"トレーニング記録フェーズ"で事前トレーニングし、新たなデータに調整する必要がある。
これはインクリメンタル/継続的な学習アプローチのタスクです。
モデルに新しいカテゴリを導入すること、既存のカテゴリをサブカテゴリに精製すること、訓練済みの分類器を拡張することなど、これらのアプローチで解決すべきさまざまな問題の中で、既存のカテゴリに対する新たなトレーニングデータを追加して事前学習モデルを調整することの課題に焦点を当てる。
本稿では,ニューロンネットワークの終端にある高速連続学習層を提案する。
得られた結果は、オープンソースのCIFARベンチマークデータセットで説明されている。
提案手法は再訓練と同様の性能を発揮するが,計算コストは大幅に低減する。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Class Impression for Data-free Incremental Learning [20.23329169244367]
ディープラーニングベースの分類アプローチでは、事前にすべてのクラスからすべてのサンプルを収集し、オフラインでトレーニングする必要がある。
このパラダイムは、新しいデータの追加によって新しいクラスが徐々に導入される現実世界の臨床応用では実用的ではないかもしれない。
本稿では,従来のクラスでトレーニングされたモデルからデータを初めて合成し,本クラスを生成する,新しいデータ自由クラスインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-26T06:20:17Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Reinforcement Learning Approach to Active Learning for Image
Classification [0.0]
この論文は、手作業で処理する必要があるデータの量を減らすための、可能なソリューションのひとつとして、アクティブな学習に取り組んでいます。
画像分類のための強化学習問題として,能動学習ワークフローをフレーミングするためのフレームワークが新たに提案されている。
論文 参考訳(メタデータ) (2021-08-12T08:34:02Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。