論文の概要: Chasing Collective Variables using Autoencoders and biased trajectories
- arxiv url: http://arxiv.org/abs/2104.11061v1
- Date: Thu, 22 Apr 2021 13:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 14:01:33.230973
- Title: Chasing Collective Variables using Autoencoders and biased trajectories
- Title(参考訳): オートエンコーダとバイアスドトラジェクタを用いた集団変数の追跡
- Authors: Zineb Belkacemi, Paraskevi Gkeka, Tony Leli\`evre and Gabriel Stoltz
- Abstract要約: 自動エンコーダによるCV学習を含む新しい反復手法、フリーエナジーバイアスと自動エンコーダによる反復学習(FEBILAE)を紹介します。
本稿では,自由エネルギー適応偏り法として拡張適応偏り力を用いたアルゴリズムの結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last decades, free energy biasing methods have proven to be powerful
tools to accelerate the simulation of important conformational changes of
molecules by modifying the sampling measure. However, most of these methods
rely on the prior knowledge of low-dimensional slow degrees of freedom, i.e.
Collective Variables (CV). Alternatively, such CVs can be identified using
machine learning (ML) and dimensionality reduction algorithms. In this context,
approaches where the CVs are learned in an iterative way using adaptive biasing
have been proposed: at each iteration, the learned CV is used to perform free
energy adaptive biasing to generate new data and learn a new CV. This implies
that at each iteration, a different measure is sampled, thus the new training
data is distributed according to a different distribution. Given that a machine
learning model is always dependent on the considered distribution, iterative
methods are not guaranteed to converge to a certain CV. This can be remedied by
a reweighting procedure to always fall back to learning with respect to the
same unbiased Boltzmann-Gibbs measure, regardless of the biased measure used in
the adaptive sampling. In this paper, we introduce a new iterative method
involving CV learning with autoencoders: Free Energy Biasing and Iterative
Learning with AutoEncoders (FEBILAE). Our method includes the reweighting
scheme to ensure that the learning model optimizes the same loss, and achieves
CV convergence. Using a small 2-dimensional toy system and the alanine
dipeptide system as examples, we present results of our algorithm using the
extended adaptive biasing force as the free energy adaptive biasing method.
- Abstract(参考訳): 過去数十年間、自由エネルギーバイアス法は、サンプリング尺度を変更することで分子の重要な構造変化のシミュレーションを加速する強力なツールであることが証明されてきた。
しかし、これらの手法のほとんどが、低次元の緩やかな自由度の事前の知識に依存している。
集合変数 (cv)。
あるいは、機械学習(ML)と次元削減アルゴリズムを使って、そのようなCVを識別することができる。
この文脈では、CVを適応バイアスを用いて反復的に学習するアプローチが提案されている。各繰り返しにおいて、学習されたCVを使用して自由エネルギー適応バイアスを行い、新しいデータを生成し、新しいCVを学ぶ。
これは、各イテレーションで異なる測定値がサンプリングされ、新しいトレーニングデータが異なる分布に従って分散されることを意味する。
機械学習モデルは常に考慮された分布に依存するため、反復的手法は特定のcvに収束することが保証されない。
これは、適応サンプリングに使用される偏りのある測度に関係なく、同じ偏りのないボルツマン・ギブス測度に関して常に学習に戻るための再重み付け手順によって修正することができる。
本稿では,自動エンコーダを用いたcv学習と自動エンコーダによる自由エネルギーバイアスと反復学習を含む新しい反復学習手法を提案する。
本手法は,学習モデルが同一損失を最適化し,CV収束を実現するための重み付け方式を含む。
本研究では,2次元玩具システムとアラニンジペプチドシステムを例に,自由エネルギー適応バイアス法として拡張された適応バイアス力を用いたアルゴリズムの結果を示す。
関連論文リスト
- Adaptive Intra-Class Variation Contrastive Learning for Unsupervised Person Re-Identification [10.180143197144803]
AdaInCVと呼ばれる教師なしRe-IDのための適応型クラス内変動コントラスト学習アルゴリズムを提案する。
このアルゴリズムは,クラスタリング後のクラス内変動を考慮し,各クラスのモデルの学習能力を定量的に評価する。
より具体的には、Adaptive Sample Mining (AdaSaM)とAdaptive Outlier Filter (AdaOF)の2つの新しい戦略が提案されている。
論文 参考訳(メタデータ) (2024-04-06T15:48:14Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - D-CALM: A Dynamic Clustering-based Active Learning Approach for
Mitigating Bias [13.008323851750442]
本稿では,クラスタリングとアノテーションを動的に調整する適応型クラスタリングに基づく能動的学習アルゴリズムD-CALMを提案する。
感情,ヘイトスピーチ,ダイアログ行為,書籍型検出など,多種多様なテキスト分類タスクのための8つのデータセットの実験により,提案アルゴリズムがベースラインALアプローチを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-05-26T15:17:43Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Neural Active Learning on Heteroskedastic Distributions [29.01776999862397]
ヘテロスケダスティックデータセット上でのアクティブ学習アルゴリズムの破滅的な失敗を実証する。
本稿では,各データポイントにモデル差分スコアリング関数を組み込んで,ノイズの多いサンプルとサンプルクリーンなサンプルをフィルタするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-02T07:30:19Z) - Reweighted Manifold Learning of Collective Variables from Enhanced Sampling Simulations [2.6009298669020477]
多様体学習のための異方性拡散写像に基づくフレームワークを提供する。
この枠組みは平衡密度を正確に記述したCVを生じるバイアス効果を逆転させることを示す。
標準および改良されたサンプリングシミュレーションから得られたデータについて,多くの多様体学習手法で利用できることを示す。
論文 参考訳(メタデータ) (2022-07-29T08:59:56Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Task-agnostic Continual Learning with Hybrid Probabilistic Models [75.01205414507243]
分類のための連続学習のためのハイブリッド生成識別手法であるHCLを提案する。
フローは、データの配布を学習し、分類を行い、タスクの変更を特定し、忘れることを避けるために使用される。
本研究では,スプリット-MNIST,スプリット-CIFAR,SVHN-MNISTなどの連続学習ベンチマークにおいて,HCLの強い性能を示す。
論文 参考訳(メタデータ) (2021-06-24T05:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。