論文の概要: BenchML: an extensible pipelining framework for benchmarking
representations of materials and molecules at scale
- arxiv url: http://arxiv.org/abs/2112.02287v1
- Date: Sat, 4 Dec 2021 09:07:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:27:32.140751
- Title: BenchML: an extensible pipelining framework for benchmarking
representations of materials and molecules at scale
- Title(参考訳): BenchML:大規模材料および分子の表現をベンチマークするための拡張可能なパイプライニングフレームワーク
- Authors: Carl Poelking, Felix A. Faber, Bingqing Cheng
- Abstract要約: 物質や分子のデータセットに対して化学系の表現をベンチマークする機械学習フレームワークを提案する。
モデル複雑性を単純な回帰スキームに制限することで、生の記述子の性能を評価するのが原則である。
結果として得られるモデルは、将来のメソッド開発を知らせるベースラインとして意図されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a machine-learning (ML) framework for high-throughput
benchmarking of diverse representations of chemical systems against datasets of
materials and molecules. The guiding principle underlying the benchmarking
approach is to evaluate raw descriptor performance by limiting model complexity
to simple regression schemes while enforcing best ML practices, allowing for
unbiased hyperparameter optimization, and assessing learning progress through
learning curves along series of synchronized train-test splits. The resulting
models are intended as baselines that can inform future method development,
next to indicating how easily a given dataset can be learnt. Through a
comparative analysis of the training outcome across a diverse set of
physicochemical, topological and geometric representations, we glean insight
into the relative merits of these representations as well as their
interrelatedness.
- Abstract(参考訳): 材料や分子のデータセットに対する化学システムの多種多様な表現の高スループットベンチマークのための機械学習(ml)フレームワークを提案する。
ベンチマーク手法の根底にある原則は、モデル複雑性を単純な回帰スキームに制限し、最高のMLプラクティスを適用し、バイアスのないハイパーパラメータ最適化を可能にし、一連の同期列車-テスト分割に沿って学習曲線による学習進捗を評価することで、生の記述子のパフォーマンスを評価することである。
得られたモデルは、与えられたデータセットがどれだけ簡単に学習できるかを示すために、将来のメソッド開発を知らせるベースラインとして意図されています。
様々な物理化学的,位相的,幾何学的表現のトレーニング結果の比較分析を通じて,これらの表現の相対的メリットと相互関係性について考察する。
関連論文リスト
- Analyzing Generative Models by Manifold Entropic Metrics [8.477943884416023]
抽出可能な情報理論評価指標を新たに導入する。
EMNISTデータセット上の各種正規化フローアーキテクチャと$beta$-VAEを比較した。
私たちの実験で最も興味深い発見は、トレーニング中に整列および非整合表現に収束する誘導バイアスの観点から、モデルアーキテクチャとトレーニング手順のランク付けです。
論文 参考訳(メタデータ) (2024-10-25T09:35:00Z) - Relational Learning in Pre-Trained Models: A Theory from Hypergraph Recovery Perspective [60.64922606733441]
我々は,関係学習をハイパーグラフリカバリとして形式化する数学的モデルを導入し,基礎モデル(FM)の事前学習について検討する。
我々のフレームワークでは、世界はハイパーグラフとして表現され、データはハイパーエッジからランダムなサンプルとして抽象化される。我々は、このハイパーグラフを復元するための事前学習モデル(PTM)の有効性を理論的に検証し、ミニマックスに近い最適スタイルでデータ効率を解析する。
論文 参考訳(メタデータ) (2024-06-17T06:20:39Z) - Methods for Class-Imbalanced Learning with Support Vector Machines: A Review and an Empirical Evaluation [22.12895887111828]
クラス不均衡学習に関して,SVMに基づくモデルの階層的分類を導入する。
ベンチマーク不均衡データセットを用いて,各カテゴリの各種SVMモデルの性能を比較した。
以上の結果から,データ前処理の要求がないため,アルゴリズム手法は時間がかかりにくいが,再サンプリング手法とアルゴリズム手法を併用した融合方式は,一般に最善を尽くしていることがわかった。
論文 参考訳(メタデータ) (2024-06-05T15:55:08Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - SymbolicAI: A framework for logic-based approaches combining generative models and solvers [9.841285581456722]
生成過程における概念学習とフロー管理に論理的アプローチを取り入れた,汎用的でモジュール化されたフレームワークであるSybolicAIを紹介する。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - On Training Implicit Meta-Learning With Applications to Inductive
Weighing in Consistency Regularization [0.0]
暗黙的メタラーニング(IML)では、特にヘシアン(Hessian)の計算に2ドル(約2,200円)の勾配を必要とする。
ヘッセンの様々な近似が提案されたが、計算コスト、安定性、解の一般化、推定精度の体系的な比較はほとんど見過ごされてしまった。
本稿では,ドメイン固有の特徴を抽出するために,信頼ネットワークをトレーニングすることで,有用画像のアップウェイトや配布外サンプルのダウンウェイトを学べることを示す。
論文 参考訳(メタデータ) (2023-10-28T15:50:03Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Model-data-driven constitutive responses: application to a multiscale
computational framework [0.0]
古典法則(モデルベース)、データ駆動補正コンポーネント、計算的マルチスケールアプローチを組み合わせたハイブリッド方法論が提示される。
非線形数値均質化法により得られた低スケールのデータを用いてモデルベース材料表現を局所的に改善する。
提案手法では,モデルとデータの両方が基本的な役割を担い,物理に基づく応答と機械学習のブラックボックスの相乗的統合を実現する。
論文 参考訳(メタデータ) (2021-04-06T16:34:46Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。