論文の概要: Integral Continual Learning Along the Tangent Vector Field of Tasks
- arxiv url: http://arxiv.org/abs/2211.13108v1
- Date: Wed, 23 Nov 2022 16:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:51:56.407633
- Title: Integral Continual Learning Along the Tangent Vector Field of Tasks
- Title(参考訳): タスクの接ベクトル場に沿った積分連続学習
- Authors: Tian Yu Liu, Aditya Golatkar, Stefano Soatto, Alessandro Achille
- Abstract要約: 本稿では,特殊データセットからの情報を段階的に組み込んだ連続学習手法を提案する。
本研究では,Seq-CIFAR-10の性能向上に向けて,誤差を36%削減して最先端の精度を実現する。
- 参考スコア(独自算出の注目度): 137.21346040303663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a continual learning method which incorporates information from
specialized datasets incrementally, by integrating it along the vector field of
"generalist" models. The tangent plane to the specialist model acts as a
generalist guide and avoids the kind of over-fitting that leads to catastrophic
forgetting, while exploiting the convexity of the optimization landscape in the
tangent plane. It maintains a small fixed-size memory buffer, as low as 0.4% of
the source datasets, which is updated by simple resampling. Our method achieves
state-of-the-art across various buffer sizes for different datasets.
Specifically, in the class-incremental setting we outperform the existing
methods by an average of 26.24% and 28.48%, for Seq-CIFAR-10 and
Seq-TinyImageNet respectively. Our method can easily be combined with existing
replay-based continual learning methods. When memory buffer constraints are
relaxed to allow storage of other metadata such as logits, we attain
state-of-the-art accuracy with an error reduction of 36% towards the paragon
performance on Seq-CIFAR-10.
- Abstract(参考訳): 本稿では,「ジェネラリスト」モデルのベクトル場に沿って,特殊データセットからの情報を漸進的に組み込む連続学習手法を提案する。
スペシャリストモデルに対する接地平面は、一般のガイドとして機能し、接地平面における最適化景観の凸性を活用しながら、破滅的な忘れ込みにつながる過度な適合を避ける。
それは小さな固定サイズのメモリバッファを維持し、ソースデータセットの0.4%まで低く、単純な再サンプリングによって更新される。
提案手法は,異なるデータセットに対して,様々なバッファサイズにまたがる最先端を実現する。
具体的には、Seq-CIFAR-10 と Seq-TinyImageNet でそれぞれ 26.24% と 28.48% の既存手法を上回ります。
本手法は既存のリプレイ型連続学習手法と容易に組み合わせることができる。
メモリバッファの制約を緩和してロジットなどのメタデータを保存すると,Seq-CIFAR-10のパラゴン性能に対して36%の誤差で最先端の精度が得られる。
関連論文リスト
- Unified Gradient-Based Machine Unlearning with Remain Geometry Enhancement [29.675650285351768]
深層ニューラルネットワークのプライバシーと信頼性を高めるために、機械学習(MU)が登場した。
近似MUは大規模モデルの実用的手法である。
本稿では,最新の学習方向を暗黙的に近似する高速スローパラメータ更新手法を提案する。
論文 参考訳(メタデータ) (2024-09-29T15:17:33Z) - Gradient Boosting Mapping for Dimensionality Reduction and Feature Extraction [2.778647101651566]
教師あり学習における根本的な問題は、優れた特徴や距離尺度を見つけることである。
本稿では,弱い学習者の出力が埋め込みを定義する,教師付き次元削減手法を提案する。
組込み座標は教師付き学習タスクにより良い機能を提供することを示す。
論文 参考訳(メタデータ) (2024-05-14T10:23:57Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Stochastic Gradient Descent for Nonparametric Regression [11.24895028006405]
本稿では,非パラメトリック加法モデルをトレーニングするための反復アルゴリズムを提案する。
結果の不等式は、モデルの誤特定を可能にする託宣を満足していることが示される。
論文 参考訳(メタデータ) (2024-01-01T08:03:52Z) - Filter Pruning For CNN With Enhanced Linear Representation Redundancy [3.853146967741941]
本稿では,CCM-loss という同一層内の異なる特徴写像の相関行列から計算したデータ駆動損失関数の項を示す。
CCM-lossは、L*-ノルム正規化以外に、別の普遍的超越数学的ツールを提供する。
新しい戦略では、主にネットワーク内の情報フローの整合性と整合性に注目します。
論文 参考訳(メタデータ) (2023-10-10T06:27:30Z) - Understanding Collapse in Non-Contrastive Learning [122.2499276246997]
モデルがデータセットサイズに対して小さすぎる場合,SimSiam表現が部分次元崩壊することを示す。
本稿では,この崩壊の度合いを計測し,微調整やラベルを使わずに下流のタスク性能を予測できる指標を提案する。
論文 参考訳(メタデータ) (2022-09-29T17:59:55Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Rethinking Reconstruction Autoencoder-Based Out-of-Distribution
Detection [0.0]
リコンストラクションオートエンコーダに基づく手法は、入力再構成誤差を新規性対正規性の計量として用いることでこの問題に対処する。
本稿では, 意味的再構成, データの確実性分解, 正規化L2距離を導入し, 元の手法を大幅に改善する。
提案手法は,追加データや実装の困難さ,時間を要するパイプライン,さらには既知のクラスの分類精度を損なうことなく機能する。
論文 参考訳(メタデータ) (2022-03-04T09:04:55Z) - Meta-Generating Deep Attentive Metric for Few-shot Classification [53.07108067253006]
本稿では,新しい数ショット学習タスクのための特定のメトリックを生成するための,新しい深度メタジェネレーション手法を提案する。
本研究では,各タスクの識別基準を生成するのに十分なフレキシブルな3層深い注意ネットワークを用いて,メトリクスを構造化する。
特に挑戦的なケースでは、最先端の競合他社よりも驚くほどパフォーマンスが向上しています。
論文 参考訳(メタデータ) (2020-12-03T02:07:43Z) - Carath\'eodory Sampling for Stochastic Gradient Descent [79.55586575988292]
本稿では,Tchakaloff と Carath'eodory の古典的な結果から着想を得た手法を提案する。
我々は、測定値の低減を行う降下ステップを適応的に選択する。
これをBlock Coordinate Descentと組み合わせることで、測定の削減を極めて安価に行えるようにします。
論文 参考訳(メタデータ) (2020-06-02T17:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。