論文の概要: Lifelong Infinite Mixture Model Based on Knowledge-Driven Dirichlet
Process
- arxiv url: http://arxiv.org/abs/2108.12278v1
- Date: Wed, 25 Aug 2021 21:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:25:29.999386
- Title: Lifelong Infinite Mixture Model Based on Knowledge-Driven Dirichlet
Process
- Title(参考訳): 知識駆動型ディリクレ過程に基づく生涯無限混合モデル
- Authors: Fei Ye and Adrian G. Bors
- Abstract要約: 生涯学習における最近の研究成果は、タスクの増加に対応するために、モデルの混合を成長させることが提案されている。
本研究では,データの確率的表現間の差分距離に基づいてリスク境界を導出することにより,生涯学習モデルの理論的解析を行う。
理論解析に着想を得て, 生涯無限混合モデル (LIMix) と呼ばれる新しい生涯学習手法を導入する。
- 参考スコア(独自算出の注目度): 15.350366047108103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research efforts in lifelong learning propose to grow a mixture of
models to adapt to an increasing number of tasks. The proposed methodology
shows promising results in overcoming catastrophic forgetting. However, the
theory behind these successful models is still not well understood. In this
paper, we perform the theoretical analysis for lifelong learning models by
deriving the risk bounds based on the discrepancy distance between the
probabilistic representation of data generated by the model and that
corresponding to the target dataset. Inspired by the theoretical analysis, we
introduce a new lifelong learning approach, namely the Lifelong Infinite
Mixture (LIMix) model, which can automatically expand its network architectures
or choose an appropriate component to adapt its parameters for learning a new
task, while preserving its previously learnt information. We propose to
incorporate the knowledge by means of Dirichlet processes by using a gating
mechanism which computes the dependence between the knowledge learnt previously
and stored in each component, and a new set of data. Besides, we train a
compact Student model which can accumulate cross-domain representations over
time and make quick inferences. The code is available at
https://github.com/dtuzi123/Lifelong-infinite-mixture-model.
- Abstract(参考訳): 生涯学習における最近の研究は、より多くのタスクに適応するためにモデルの混合を成長させることを提案する。
提案手法は破滅的な忘れを克服する有望な結果を示す。
しかし、これらのモデルの背後にある理論はまだよく分かっていない。
本稿では,モデルが生成したデータの確率的表現と対象データセットに対応するデータとの差分距離に基づいて,リスク境界を導出することにより,生涯学習モデルの理論的解析を行う。
ネットワークアーキテクチャを自動拡張したり、新しいタスクの学習にパラメータを適合させるために適切なコンポーネントを選択したりすることができる。
本稿では,従来学習した知識と各コンポーネントに記憶された知識との依存性を計算するゲーティング機構と,新たなデータセットを用いて,ディリクレプロセスによる知識の取り込みを提案する。
さらに、時間とともにクロスドメイン表現を蓄積し、素早く推論できるコンパクトな学生モデルを訓練する。
コードはhttps://github.com/dtuzi123/Lifelong-infinite-mixture-modelで入手できる。
関連論文リスト
- MergeNet: Knowledge Migration across Heterogeneous Models, Tasks, and Modalities [72.68829963458408]
異種モデルのパラメータ空間のギャップを埋めることを学ぶMergeNetを提案する。
MergeNetの中核となるメカニズムはパラメータアダプタにあり、ソースモデルの低ランクパラメータをクエリすることで動作する。
MergeNetは両方のモデルと共に学習され、我々のフレームワークは、現在のステージに関する知識を動的に転送し、適応することができます。
論文 参考訳(メタデータ) (2024-04-20T08:34:39Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - ZhiJian: A Unifying and Rapidly Deployable Toolbox for Pre-trained Model
Reuse [59.500060790983994]
本稿では、PyTorchバックエンドを利用して、モデル再利用のための包括的でユーザフレンドリなツールボックスであるZhiJianを紹介する。
ZhiJianは、PTMによるターゲットアーキテクチャ構築、PTMによるターゲットモデルチューニング、およびPTMに基づく推論を含む、モデル再利用に関するさまざまな視点を統一する新しいパラダイムを提示している。
論文 参考訳(メタデータ) (2023-08-17T19:12:13Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Learning an evolved mixture model for task-free continual learning [11.540150938141034]
タスク自由連続学習(TFCL)では,非定常データストリーム上で,明示的なタスク情報を持たないモデルを訓練する。
メモリ過負荷を回避するため,記憶されているサンプルを選択的に削除する2つの単純なドロップアウト機構を導入する。
論文 参考訳(メタデータ) (2022-07-11T16:01:27Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - Blockwise Sequential Model Learning for Partially Observable
Reinforcement Learning [14.642266310020505]
本稿では、部分的に観測可能なマルコフ決定問題を解くために、新しい逐次モデル学習アーキテクチャを提案する。
提案アーキテクチャは,各データブロックに複数のタイムステップを持つ潜時変数を生成し,最も関連性の高い情報を次のブロックに渡してポリシー最適化を行う。
数値計算の結果,提案手法は様々な部分観測可能な環境において,従来の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-10T05:38:24Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - Streaming Graph Neural Networks via Continual Learning [31.810308087441445]
グラフニューラルネットワーク(GNN)は様々なアプリケーションで高いパフォーマンスを実現している。
本稿では,連続学習に基づくストリーミングGNNモデルを提案する。
モデルパラメータを効率的に更新し、モデル再トレーニングに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-23T06:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。