論文の概要: BinPlay: A Binary Latent Autoencoder for Generative Replay Continual
Learning
- arxiv url: http://arxiv.org/abs/2011.14960v1
- Date: Wed, 25 Nov 2020 08:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:23:01.175526
- Title: BinPlay: A Binary Latent Autoencoder for Generative Replay Continual
Learning
- Title(参考訳): BinPlay: 生成的再生継続学習のためのバイナリ潜在オートエンコーダ
- Authors: Kamil Deja, Pawe{\l} Wawrzy\'nski, Daniel Marczak, Wojciech Masarczyk,
Tomasz Trzci\'nski
- Abstract要約: 本稿では、ニューラルネットワークの連続学習のためのトレーニングサンプルをリハーサルするために、バイナリラテント空間オートエンコーダアーキテクチャを導入する。
BinPlayは、メモリに保持することなく、リハーサルされたサンプルのバイナリ埋め込みをオンザフライで計算できる。
- 参考スコア(独自算出の注目度): 11.367079056418957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a binary latent space autoencoder architecture to rehearse
training samples for the continual learning of neural networks. The ability to
extend the knowledge of a model with new data without forgetting previously
learned samples is a fundamental requirement in continual learning. Existing
solutions address it by either replaying past data from memory, which is
unsustainable with growing training data, or by reconstructing past samples
with generative models that are trained to generalize beyond training data and,
hence, miss important details of individual samples. In this paper, we take the
best of both worlds and introduce a novel generative rehearsal approach called
BinPlay. Its main objective is to find a quality-preserving encoding of past
samples into precomputed binary codes living in the autoencoder's binary latent
space. Since we parametrize the formula for precomputing the codes only on the
chronological indices of the training samples, the autoencoder is able to
compute the binary embeddings of rehearsed samples on the fly without the need
to keep them in memory. Evaluation on three benchmark datasets shows up to a
twofold accuracy improvement of BinPlay versus competing generative replay
methods.
- Abstract(参考訳): ニューラルネットワークの連続学習のためのトレーニングサンプルをリハーサルするために,バイナリ潜在空間オートエンコーダアーキテクチャを導入する。
学習したサンプルを忘れずに新しいデータでモデルの知識を拡張する能力は、継続的な学習の基本的な要件である。
既存のソリューションは、トレーニングデータの増加に耐えられないメモリから過去のデータを再生するか、トレーニングデータを超えて一般化するように訓練された生成モデルで過去のサンプルを再構築することで対処する。
本稿では,両世界のベストを尽くし,ビンプレイと呼ばれる新しい生成リハーサルアプローチを提案する。
その主な目的は、過去のサンプルの品質保存エンコーディングを、オートエンコーダのバイナリ潜在空間に住む予め計算されたバイナリコードに変換することである。
トレーニングサンプルの時系列インデックスのみを事前計算するための公式をパラメータ化するので、オートエンコーダは、リハーサルされたサンプルのバイナリ埋め込みをメモリに保持することなく、オンザフライで計算することができる。
3つのベンチマークデータセットの評価は、BinPlayと競合する生成的再生方法の2倍の精度向上を示す。
関連論文リスト
- UnitCoder: Scalable Iterative Code Synthesis with Unit Test Guidance [65.01483640267885]
大きな言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示してきたが、コード生成は依然として大きな課題である。
私たちは、モデル生成ユニットテストを活用してコード生成プロセスのガイドと検証を行う、システマティックパイプラインであるUnitCoderを紹介します。
我々の研究は、モデル生成単体テストを利用して、事前学習コーパスから高品質なコードデータの合成を誘導するスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-17T05:37:02Z) - A Fresh Take on Stale Embeddings: Improving Dense Retriever Training with Corrector Networks [81.2624272756733]
密集検索では、ディープエンコーダは入力とターゲットの両方に埋め込みを提供する。
我々は、古いキャッシュされたターゲット埋め込みを調整できる小さなパラメトリック補正ネットワークを訓練する。
私たちのアプローチは、トレーニング中にターゲット埋め込み更新が行われなくても、最先端の結果と一致します。
論文 参考訳(メタデータ) (2024-09-03T13:29:13Z) - Dual-Stream Knowledge-Preserving Hashing for Unsupervised Video
Retrieval [67.52910255064762]
時間層とハッシュ層を含む単純な二重ストリーム構造を設計する。
まず、時間層とハッシュ層を含む単純な二重ストリーム構造を設計する。
自己スーパービジョンから得られたセマンティック類似性知識の助けを借りて、ハッシュ層はセマンティック検索のための情報を取得することを学習する。
このようにして、モデルは自然に二進的なコードに絡み合ったセマンティクスを保存します。
論文 参考訳(メタデータ) (2023-10-12T03:21:12Z) - Are We Using Autoencoders in a Wrong Way? [3.110260251019273]
オートエンコーダは次元減少、異常検出、特徴抽出に使用される。
潜在空間の形状を変更する不完全なオートエンコーダの標準トレーニングを再考した。
また,データセット全体からランダムサンプルを再構成する場合の潜伏空間の挙動についても検討した。
論文 参考訳(メタデータ) (2023-09-04T11:22:43Z) - A manifold learning perspective on representation learning: Learning
decoder and representations without an encoder [0.0]
オートエンコーダは表現学習で一般的に使用される。
多様体学習にインスパイアされて、トレーニングサンプルの表現を学習することで、デコーダを単独で訓練できることが示される。
デコーダのみを訓練する我々のアプローチは、小さなデータセットでも表現学習を容易にする。
論文 参考訳(メタデータ) (2021-08-31T15:08:50Z) - IB-DRR: Incremental Learning with Information-Back Discrete
Representation Replay [4.8666876477091865]
インクリメンタルラーニングは、機械学習モデルが新しいクラスから新しい知識を継続的に取得できるようにすることを目的としている。
以前に見たクラスのトレーニングサンプルのサブセットをメモリに保存し、新しいトレーニングフェーズ中に再生することは、この目標を達成するために効率的で効果的な方法であることが証明されています。
しかし、モデルパフォーマンスと各クラスに保存するサンプル数とのトレードオフを見つけることは、リプレイベースの漸進学習では依然として未解決の問題である。
論文 参考訳(メタデータ) (2021-04-21T15:32:11Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。