論文の概要: Self-consistent Validation for Machine Learning Electronic Structure
- arxiv url: http://arxiv.org/abs/2402.10186v1
- Date: Thu, 15 Feb 2024 18:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 14:26:57.830989
- Title: Self-consistent Validation for Machine Learning Electronic Structure
- Title(参考訳): 機械学習電子構造の自己一貫性検証
- Authors: Gengyuan Hu, Gengchen Wei, Zekun Lou, Philip H.S. Torr, Wanli Ouyang,
Han-sen Zhong, Chen Lin
- Abstract要約: 機械学習と自己整合フィールド法を統合して,検証コストの低減と解釈可能性の両立を実現する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
- 参考スコア(独自算出の注目度): 81.54661501506185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning has emerged as a significant approach to efficiently tackle
electronic structure problems. Despite its potential, there is less guarantee
for the model to generalize to unseen data that hinders its application in
real-world scenarios. To address this issue, a technique has been proposed to
estimate the accuracy of the predictions. This method integrates machine
learning with self-consistent field methods to achieve both low validation cost
and interpret-ability. This, in turn, enables exploration of the model's
ability with active learning and instills confidence in its integration into
real-world studies.
- Abstract(参考訳): 機械学習は電子構造問題に効果的に取り組むための重要なアプローチとして登場した。
可能性を秘めているが、実世界のシナリオでアプリケーションを妨げる、未認識のデータに一般化する保証は少ない。
この問題に対処するために,予測の精度を推定する手法が提案されている。
この手法は、機械学習と自己整合フィールド法を統合し、低い検証コストと解釈可能性の両方を達成する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
関連論文リスト
- Privacy Preservation through Practical Machine Unlearning [0.0]
本稿では,SISAフレームワークを用いたNative RetrainingやExact Unlearningなどの手法について検討する。
部分的にラベル付けされたデータセットがもたらす課題に対処するために、未学習の原則をPositive Unlabeled (PU) Learningに統合する可能性を探る。
論文 参考訳(メタデータ) (2025-02-15T02:25:27Z) - Probabilities-Informed Machine Learning [0.0]
本研究では,出力関数の構造に関するドメイン知識から着想を得たMLパラダイムを提案する。
提案手法は,対象変数の確率的構造を学習プロセスに統合する。
モデル精度を高め、過度な適合と不適合のリスクを軽減する。
論文 参考訳(メタデータ) (2024-12-16T08:01:22Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - Unlearning with Control: Assessing Real-world Utility for Large Language Model Unlearning [97.2995389188179]
最近の研究は、勾配上昇(GA)を通した大規模言語モデル(LLM)の未学習にアプローチし始めている。
その単純さと効率性にもかかわらず、我々はGAベースの手法が過剰な未学習の傾向に直面することを示唆している。
過剰な未学習の度合いを制御できるいくつかの制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Generalizing Machine Learning Evaluation through the Integration of Shannon Entropy and Rough Set Theory [0.0]
我々は、粗集合論の粒度とシャノンエントロピーの不確かさの定量化を相乗化する包括的枠組みを導入する。
我々の手法は様々なデータセットで厳密にテストされており、予測性能を評価するだけでなく、基礎となるデータの複雑さとモデルロバスト性を照らす能力を示している。
論文 参考訳(メタデータ) (2024-04-18T21:22:42Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Towards Automated Knowledge Integration From Human-Interpretable Representations [55.2480439325792]
我々は,情報メタ学習の原理を理論的に導入・動機付けし,自動的かつ制御可能な帰納バイアス選択を可能にする。
データ効率と一般化を改善するための情報メタラーニングのメリットと限界を実証的に示す。
論文 参考訳(メタデータ) (2024-02-25T15:08:37Z) - Graceful Degradation and Related Fields [0.0]
優雅な劣化は、アウト・オブ・ディストリビューションデータに遭遇するモデルパフォーマンスの最適化を指す。
この研究は、優雅な劣化の定義と議論であり、どのようにデプロイされた視覚システムに適用できるかを示す。
論文 参考訳(メタデータ) (2021-06-21T13:56:41Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。