論文の概要: Reproducible, incremental representation learning with Rosetta VAE
- arxiv url: http://arxiv.org/abs/2201.05206v1
- Date: Thu, 13 Jan 2022 20:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-18 01:00:10.123641
- Title: Reproducible, incremental representation learning with Rosetta VAE
- Title(参考訳): Rosetta VAEを用いた再現性・漸進的表現学習
- Authors: Miles Martinez, John Pearson
- Abstract要約: 変分オートエンコーダは、高次元データから低次元構造を蒸留する最も一般的な方法の一つである。
我々は、以前に学習した表現を蒸留し、新しいモデルを再現し、事前の結果に基づいて構築する手法であるRosetta VAEを紹介する。
R-VAEは、VAEや$beta$-VAEと同様にデータを再構成し、連続的なトレーニング環境でターゲット潜在空間の回復において、両方の手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational autoencoders are among the most popular methods for distilling
low-dimensional structure from high-dimensional data, making them increasingly
valuable as tools for data exploration and scientific discovery. However,
unlike typical machine learning problems in which a single model is trained
once on a single large dataset, scientific workflows privilege learned features
that are reproducible, portable across labs, and capable of incrementally
adding new data. Ideally, methods used by different research groups should
produce comparable results, even without sharing fully trained models or entire
data sets. Here, we address this challenge by introducing the Rosetta VAE
(R-VAE), a method of distilling previously learned representations and
retraining new models to reproduce and build on prior results. The R-VAE uses
post hoc clustering over the latent space of a fully-trained model to identify
a small number of Rosetta Points (input, latent pairs) to serve as anchors for
training future models. An adjustable hyperparameter, $\rho$, balances fidelity
to the previously learned latent space against accommodation of new data. We
demonstrate that the R-VAE reconstructs data as well as the VAE and
$\beta$-VAE, outperforms both methods in recovery of a target latent space in a
sequential training setting, and dramatically increases consistency of the
learned representation across training runs.
- Abstract(参考訳): 変分オートエンコーダは、高次元データから低次元構造を蒸留する最も一般的な方法の1つであり、データ探索や科学的発見のためのツールとして価値を高めている。
しかし、単一のモデルを1つの大きなデータセットで一度トレーニングする典型的な機械学習問題とは異なり、科学的ワークフローは再現性があり、実験室間でポータブルで、新たなデータを漸進的に追加することができる。
理想的には、異なる研究グループが使用する手法は、完全に訓練されたモデルやデータセットを共有せずにも、同等の結果を生み出すべきである。
そこで本稿では,これまでに学習した表現を蒸留し,新たなモデルを再訓練して再現・構築する手法であるrosetta vae (r-vae)を導入することで,この課題に対処した。
R-VAEは、完全に訓練されたモデルの潜在空間上のポストホッククラスタリングを使用して、少数のロゼッタポイント(インプット、潜在ペア)を特定し、将来のモデルをトレーニングするためのアンカーとして機能する。
調整可能なハイパーパラメータである$\rho$は、前もって学習した潜在空間と新しいデータの収容に対する忠実さのバランスをとる。
R-VAEは、VAEや$\beta$-VAEと同様にデータを再構成し、連続的なトレーニング環境でターゲット潜在空間の回復において両手法を上回り、学習した表現の一貫性を劇的に向上させることを示した。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Self-Evolved Diverse Data Sampling for Efficient Instruction Tuning [47.02160072880698]
モデル自体が等しくあるいはそれ以上に効果的であるサブセットを積極的にサンプリングできる自己進化メカニズムを導入します。
データサンプリング技術の鍵は、選択したサブセットの多様性の向上にあります。
3つのデータセットとベンチマークにわたる大規模な実験は、DiverseEvolの有効性を示している。
論文 参考訳(メタデータ) (2023-11-14T14:10:40Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - InPars: Data Augmentation for Information Retrieval using Large Language
Models [5.851846467503597]
本研究では,大規模な事前学習型言語モデルの,情報検索タスクのための合成データ生成機能を利用する。
我々は、教師なしデータセットのみに微調整されたモデルが、BM25のような強力なベースラインより優れていることを示す。
教師付きデータと我々の合成データの両方に微調整されたレトリバーは、教師付きデータにのみ微調整されたモデルよりも優れたゼロショット転送を実現する。
論文 参考訳(メタデータ) (2022-02-10T16:52:45Z) - Reconstructing Training Data from Diverse ML Models by Ensemble
Inversion [8.414622657659168]
モデルインバージョン(MI)は、学習された機械学習(ML)モデルへのアクセスを敵が悪用するものであり、研究の注目を集めている。
本研究では,訓練されたモデルのアンサンブルに制約されたジェネレータを訓練することにより,元のトレーニングデータの分布を推定するアンサンブル変換手法を提案する。
データセットを使わずに高品質な結果が得られ、想定されるトレーニングデータに類似した補助データセットを利用することで、結果がどう改善されるかを示す。
論文 参考訳(メタデータ) (2021-11-05T18:59:01Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。