論文の概要: Toward industrial use of continual learning : new metrics proposal for class incremental learning
- arxiv url: http://arxiv.org/abs/2404.06972v1
- Date: Wed, 10 Apr 2024 12:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 14:31:03.014513
- Title: Toward industrial use of continual learning : new metrics proposal for class incremental learning
- Title(参考訳): 継続学習の産業利用に向けて : クラスインクリメンタルラーニングのための新しいメトリクスの提案
- Authors: Konaté Mohamed Abbas, Anne-Françoise Yao, Thierry Chateau, Pierre Bouges,
- Abstract要約: 平均的なタスクパフォーマンスの監視は楽観的すぎることを示し、将来の実生活における産業利用の誤解を招く可能性があることを示す。
まず,連続学習手法の公平かつ有用な評価を行うための簡易な尺度であるMinimmal Incremental Class Accuracy (MICA)を提案する。
- 参考スコア(独自算出の注目度): 2.4472308031704073
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we investigate continual learning performance metrics used in class incremental learning strategies for continual learning (CL) using some high performing methods. We investigate especially mean task accuracy. First, we show that it lacks of expressiveness through some simple experiments to capture performance. We show that monitoring average tasks performance is over optimistic and can lead to misleading conclusions for future real life industrial uses. Then, we propose first a simple metric, Minimal Incremental Class Accuracy (MICA) which gives a fair and more useful evaluation of different continual learning methods. Moreover, in order to provide a simple way to easily compare different methods performance in continual learning, we derive another single scalar metric that take into account the learning performance variation as well as our newly introduced metric.
- Abstract(参考訳): 本稿では,クラスインクリメンタル学習戦略(CL)における連続学習性能指標について,いくつかのハイパフォーマンス手法を用いて検討する。
特にタスクの精度について検討する。
まず,性能を捉えるための単純な実験を通して,表現力の欠如を示す。
平均的タスク性能の監視は楽観的すぎることを示し、将来の実生活における産業利用の誤解を招く可能性があることを示す。
次に,まず,最小インクリメンタルクラス精度 (MICA) という単純な尺度を提案する。
さらに、連続学習における異なる手法のパフォーマンスを簡易に比較する方法を提供するため、新たに導入した指標と同様に学習性能の変化を考慮した別のスカラーメトリックを導出する。
関連論文リスト
- Unlearning with Control: Assessing Real-world Utility for Large Language Model Unlearning [97.2995389188179]
最近の研究は、勾配上昇(GA)を通した大規模言語モデル(LLM)の未学習にアプローチし始めている。
その単純さと効率性にもかかわらず、我々はGAベースの手法が過剰な未学習の傾向に直面することを示唆している。
過剰な未学習の度合いを制御できるいくつかの制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Orthogonal Subspace Learning for Language Model Continual Learning [45.35861158925975]
O-LoRAは、言語モデルにおける継続学習のためのシンプルで効率的なアプローチである。
提案手法は,パラメータの余分な追加コストのみを誘導し,再生にユーザデータストレージを必要としない。
論文 参考訳(メタデータ) (2023-10-22T02:23:44Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Finding Significant Features for Few-Shot Learning using Dimensionality
Reduction [0.0]
このモジュールは、計量学習法により与えられる類似度関数を、分類のためのより識別的な特徴を持つようにすることで、精度の向上を支援する。
提案手法は,MiniImageNetデータセットにおけるメトリック学習ベースラインの精度を約2%向上させる。
論文 参考訳(メタデータ) (2021-07-06T16:36:57Z) - Self-Supervised Metric Learning in Multi-View Data: A Downstream Task
Perspective [2.01243755755303]
マルチビューデータの文脈において,自己教師付きメトリック学習が下流タスクにどのような効果をもたらすかを検討する。
本稿では, 下流タスクにおいて, 目標距離がいくつかの望ましい特性を満たすことを示す。
本分析では,4つの下流タスクにおいて,自己教師付きメトリック学習による改善を特徴付ける。
論文 参考訳(メタデータ) (2021-06-14T02:34:33Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - On Data Efficiency of Meta-learning [17.739215706060605]
私たちは、現代のメタ学習アルゴリズムの見落とされがちな側面、すなわちそのデータ効率を研究します。
本稿では,メタラーニング手法を評価するための新しいシンプルなフレームワークを提案する。
本稿では,アクティブなデータ選択を学習学習に取り入れたアクティブなメタラーニングを提案する。
論文 参考訳(メタデータ) (2021-01-30T01:44:12Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - ReMP: Rectified Metric Propagation for Few-Shot Learning [67.96021109377809]
修正されたメートル法空間は、トレーニングからテストまでのメートル法一貫性を維持するために学習される。
多くの分析結果から、目的の単純な修正がかなりの性能向上をもたらすことが示唆された。
提案したReMPは効率的で効率的であり、様々な標準的な数発の学習データセットで芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-12-02T00:07:53Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。