論文の概要: IBCL: Zero-shot Model Generation under Stability-Plasticity Trade-offs
- arxiv url: http://arxiv.org/abs/2305.14782v4
- Date: Tue, 14 Oct 2025 00:46:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:31.877229
- Title: IBCL: Zero-shot Model Generation under Stability-Plasticity Trade-offs
- Title(参考訳): IBCL:安定塑性トレードオフ下におけるゼロショットモデル生成
- Authors: Pengyuan Lu, Michele Caprio, Eric Eaton, Insup Lee,
- Abstract要約: 本稿では,特定のトレードオフの下での連続学習の課題を解決するために,IBCL(Imrecise Bayesian Continual Learning)を提案する。
IBCLはリトレーニングを一定時間凸の組み合わせで置き換える。
実験の結果、IBCLはタスク毎の精度の平均で少なくとも44%の分類を改善した。
- 参考スコア(独自算出の注目度): 13.627211171587952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms that balance the stability-plasticity trade-off are well studied in the Continual Learning literature. However, only a few focus on obtaining models for specified trade-off preferences. When solving the problem of continual learning under specific trade-offs (CLuST), state-of-the-art techniques leverage rehearsal-based learning, which requires retraining when a model corresponding to a new trade-off preference is requested. This is inefficient, since there potentially exists a significant number of different trade-offs, and a large number of models may be requested. As a response, we propose Imprecise Bayesian Continual Learning (IBCL), an algorithm that tackles CLuST efficiently. IBCL replaces retraining with a constant-time convex combination. Given a new task, IBCL (1) updates the knowledge base as a convex hull of model parameter distributions, and (2) generates one Pareto-optimal model per given trade-off via convex combination without additional training. That is, obtaining models corresponding to specified trade-offs via IBCL is zero-shot. Experiments whose baselines are current CLuST algorithms show that IBCL improves classification by at most 44% on average per task accuracy, and by 45% on peak per task accuracy while maintaining a near-zero to positive backward transfer, with memory overheads converging to constants. In addition, its training overhead, measured by the number of batch updates, remains constant at every task, regardless of the number of preferences requested. IBCL also improves multi-objective reinforcement learning tasks by maintaining the same Pareto front hypervolume, while significantly reducing the training cost. Details can be found at: https://github.com/ibcl-anon/ibcl.
- Abstract(参考訳): 安定性と塑性のトレードオフのバランスをとるアルゴリズムは、継続学習文学においてよく研究されている。
しかし、特定のトレードオフ好みのモデルを取得することに焦点を絞るのはわずかである。
特定のトレードオフ(CLuST)下での継続学習の問題を解決するには,新たなトレードオフ選択に対応するモデルが要求された場合に,リハーサルベースの学習が求められる。
これは非効率であり、かなりの数の異なるトレードオフが存在し、多数のモデルが要求される可能性があるためである。
そこで本研究では, CLuST を効率的に扱うアルゴリズムである Imprecise Bayesian Continual Learning (IBCL) を提案する。
IBCLはリトレーニングを一定時間凸の組み合わせで置き換える。
新しいタスクが与えられたら、IBCL (1) はモデルパラメータ分布の凸船体として知識ベースを更新し、(2) 追加の訓練なしに、与えられたトレードオフ毎に1つのパレート最適モデルを生成する。
すなわち、IBCLによる特定のトレードオフに対応するモデルを取得することはゼロショットである。
ベースラインが現在のCLuSTアルゴリズムである実験では、IBCLはタスク毎の精度の平均で少なくとも44%、タスク毎の精度で45%改善し、メモリオーバーヘッドは定数に収束している。
さらに、バッチ更新数によって測定されるトレーニングオーバーヘッドは、要求された好みの数に関係なく、すべてのタスクで一定である。
IBCLは、トレーニングコストを大幅に削減しつつ、同じParetoフロントハイパーボリュームを維持することで、多目的強化学習タスクも改善する。
詳細は、https://github.com/ibcl-anon/ibcl.comで確認できる。
関連論文リスト
- Optimize Incompatible Parameters through Compatibility-aware Knowledge Integration [104.52015641099828]
既存の研究は、そのようなパラメータを除去したり、複数の異なる事前訓練されたモデルの出力をマージすることに長けている。
本稿では,Deep AssessmentとDeep SplicingからなるCompatibility-Aware Knowledge Integration (CKI)を提案する。
統合モデルは推論やさらなる微調整に直接使用することができる。
論文 参考訳(メタデータ) (2025-01-10T01:42:43Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Few-shot Prompting for Pairwise Ranking: An Effective Non-Parametric Retrieval Model [18.111868378615206]
本稿では,複雑な訓練パイプラインを必要とせず,教師付きモデルに近い性能を達成できる一対数ショットローダを提案する。
また,複雑なトレーニングパイプラインを必要とせず,教師付きモデルに近い性能を実現する。
論文 参考訳(メタデータ) (2024-09-26T11:19:09Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - IBCL: Zero-shot Model Generation for Task Trade-offs in Continual
Learning [15.77524891010002]
本稿では,タスクトレードオフの優先事項に対処するため,IBCL(Imrecise Bayesian Continual Learning)を提案する。
IBCLは、知識ベースから好み順応モデルを生成するために、追加のトレーニングオーバーヘッドを必要としない。
IBCLは平均タスク毎の精度を23%、ピークタスク毎の精度を15%改善する。
論文 参考訳(メタデータ) (2023-10-04T17:30:50Z) - Building a Winning Team: Selecting Source Model Ensembles using a
Submodular Transferability Estimation Approach [20.86345962679122]
公開されている事前訓練されたモデルの目標タスクへの転送可能性の推定は、伝達学習タスクにとって重要な場所となっている。
本稿では, モデルアンサンブルの下流タスクへの転送可能性を評価するために, 最適なtranSportベースのsuBmOdular tRaNsferability Metrics(OSBORN)を提案する。
論文 参考訳(メタデータ) (2023-09-05T17:57:31Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。