論文の概要: Towards Automatic Continual Learning: A Self-Adaptive Framework for Continual Instruction Tuning
- arxiv url: http://arxiv.org/abs/2503.15924v1
- Date: Thu, 20 Mar 2025 08:00:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:52.464518
- Title: Towards Automatic Continual Learning: A Self-Adaptive Framework for Continual Instruction Tuning
- Title(参考訳): 自動連続学習に向けて:継続的指導チューニングのための自己適応型フレームワーク
- Authors: Peiyi Lin, Fukai Zhang, Kai Niu, Hao Fu,
- Abstract要約: 連続的な命令チューニングにより、大きな言語モデルは、過去の知識を維持しながら漸進的に学習することができる。
我々のフレームワークは受信したデータを動的にフィルタリングし、連続した更新間で冗長なデータを識別し、削減する。
計算コストを66.7%削減し、モデル性能を改善し、自律的な更新を実現した。
- 参考スコア(独自算出の注目度): 8.95038939248447
- License:
- Abstract: Continual instruction tuning enables large language models (LLMs) to learn incrementally while retaining past knowledge, whereas existing methods primarily focus on how to retain old knowledge rather than on selecting which new knowledge to learn. In domain-specific contexts, maintaining data quality and managing system constraints remain key challenges. To address these issues, we propose an automated continual instruction tuning framework that dynamically filters incoming data, which identify and reduce redundant data across successive updates. Our approach utilizes a small proxy model for efficient perplexity-based filtering, and updates the proxy to ensure that the filtering criteria remain aligned with the evolving state of the deployed model. Compared to existing static data selection methods, our framework can effectively handle incrementally acquired data and shifting distributions. Additionally, it addresses practical deployment challenges by enabling seamless model updates, supporting version rollback and incorporating automatic checkpoint evaluation. We evaluated the system in real-world medical scenarios. It reduced computational costs by 66.7% and improved model performance, and achieved autonomous updates, thus demonstrating its effectiveness for automatic continual instruction tuning.
- Abstract(参考訳): 継続的な命令チューニングにより、過去の知識を維持しながら、大きな言語モデル(LLM)が漸進的に学習できるようになる一方、既存の手法は、学習すべき新しい知識を選択することよりも、古い知識を維持する方法に重点を置いている。
ドメイン固有のコンテキストでは、データ品質の維持とシステムの制約管理が重要な課題である。
これらの問題に対処するために,逐次更新間で冗長なデータを識別・低減する,動的に着信データをフィルタリングする自動連続命令チューニングフレームワークを提案する。
提案手法では, 効率的なパープレキシティに基づくフィルタリングのために, 小さなプロキシモデルを使用し, フィルタ基準が展開モデルの進化状態と一致し続けることを保証するために, プロキシを更新する。
既存の静的データ選択手法と比較すると,このフレームワークはインクリメンタルに取得したデータや分散のシフトを効果的に処理できる。
さらに、シームレスなモデル更新を有効にし、バージョンロールバックをサポートし、自動チェックポイント評価を導入することで、実際のデプロイメント課題に対処する。
実際の医療シナリオにおけるシステムの評価を行った。
計算コストを66.7%削減し、モデル性能を改善し、自動更新を実現した。
関連論文リスト
- Enhancing Online Continual Learning with Plug-and-Play State Space Model and Class-Conditional Mixture of Discretization [72.81319836138347]
オンライン連続学習(OCL)は、以前に学習したタスクの知識を保持しながら、一度だけ現れるデータストリームから新しいタスクを学習することを目指している。
既存の方法の多くはリプレイに依存しており、正規化や蒸留によるメモリ保持の強化に重点を置いている。
既存のほとんどのメソッドに組み込むことができ、適応性を直接改善できるプラグイン・アンド・プレイモジュールであるS6MODを導入する。
論文 参考訳(メタデータ) (2024-12-24T05:25:21Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - iSAGE: An Incremental Version of SAGE for Online Explanation on Data
Streams [8.49072000414555]
iSAGEは、SAGEの時間およびメモリ効率のインクリメンタル化である。
iSAGE は SAGE と同様の理論的性質を持つことを示す。
論文 参考訳(メタデータ) (2023-03-02T11:51:54Z) - Class-Incremental Learning by Knowledge Distillation with Adaptive
Feature Consolidation [39.97128550414934]
本稿では,ディープニューラルネットワークに基づく新しいクラスインクリメンタル学習手法を提案する。
以前のタスクの例を格納するためのメモリが限られている新しいタスクを継続的に学習する。
我々のアルゴリズムは知識蒸留に基づいており、古いモデルの表現を維持するための原則的な方法を提供する。
論文 参考訳(メタデータ) (2022-04-02T16:30:04Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Online Constrained Model-based Reinforcement Learning [13.362455603441552]
主要な要件は、限られた時間とリソース予算内に留まりながら、継続的な状態とアクションスペースを扱う能力である。
本稿では,ガウス過程回帰と回帰水平制御を組み合わせたモデルに基づくアプローチを提案する。
本研究では,自動走行作業におけるオンライン学習のメリットを実証する。
論文 参考訳(メタデータ) (2020-04-07T15:51:34Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。