論文の概要: Accurate predictive model of band gap with selected important features based on explainable machine learning
- arxiv url: http://arxiv.org/abs/2503.04492v1
- Date: Thu, 06 Mar 2025 14:40:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:57:39.299283
- Title: Accurate predictive model of band gap with selected important features based on explainable machine learning
- Title(参考訳): 説明可能な機械学習に基づく重要な特徴を持つバンドギャップの正確な予測モデル
- Authors: Joohwi Lee, Kaito Miyamoto,
- Abstract要約: 本研究では、置換特徴の重要性やSHapley Additive exPlanationなど、説明可能なML(XML)技術を用いる。
XMLから派生した個々の機能の重要性に導かれ、機能削減予測モデルを構築するためのシンプルなフレームワークが提案されている。
モデル評価は、上位5つの特徴からなるXML誘導型コンパクトモデルが、ドメイン内のデータセット上のプリスタンモデルに匹敵する精度を達成することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the rapidly advancing field of materials informatics, nonlinear machine learning models have demonstrated exceptional predictive capabilities for material properties. However, their black-box nature limits interpretability, and they may incorporate features that do not contribute to, or even deteriorate, model performance. This study employs explainable ML (XML) techniques, including permutation feature importance and the SHapley Additive exPlanation, applied to a pristine support vector regression model designed to predict band gaps at the GW level using 18 input features. Guided by XML-derived individual feature importance, a simple framework is proposed to construct reduced-feature predictive models. Model evaluations indicate that an XML-guided compact model, consisting of the top five features, achieves comparable accuracy to the pristine model on in-domain datasets while demonstrating superior generalization with lower prediction errors on out-of-domain data. Additionally, the study underscores the necessity for eliminating strongly correlated features to prevent misinterpretation and overestimation of feature importance before applying XML. This study highlights XML's effectiveness in developing simplified yet highly accurate machine learning models by clarifying feature roles.
- Abstract(参考訳): 材料情報学の急速に進歩する分野において、非線形機械学習モデルは、材料特性に対する例外的な予測能力を示した。
しかし、ブラックボックスの性質は解釈可能性に限界があり、モデルの性能に寄与しない、あるいは悪化しない機能を組み込むこともある。
本研究では,18個の入力特徴を用いたGWレベルの帯域ギャップの予測を目的としたプリスタン支持ベクトル回帰モデルに適用した,置換特徴の重要性やSHapley Additive exPlanationなどの説明可能なML(XML)技術を用いる。
XMLから派生した個々の機能の重要性に導かれ、機能削減予測モデルを構築するためのシンプルなフレームワークが提案されている。
モデル評価は、上位5つの特徴からなるXML誘導型コンパクトモデルが、ドメイン内データセット上のプリスタンモデルに匹敵する精度を達成し、ドメイン外のデータに対する予測誤差を低く抑えた優れた一般化を示すことを示している。
さらに,本研究では,XML適用前の特徴の誤解釈や過大評価を防止するために,強い相関性を持つ特徴を排除する必要性を強調した。
本研究は,XMLの簡易かつ高精度な機械学習モデル開発における有効性を明らかにするものである。
関連論文リスト
- Explainability of Machine Learning Models under Missing Data [3.0485328005356136]
データ不足は、モデルのパフォーマンスと説明容易性を著しく損なうおそれのある問題である。
本稿では、欠落データ分野の発展を要約し、SHAPに対する様々な計算方法の効果について考察する。
論文 参考訳(メタデータ) (2024-06-29T11:31:09Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - IGANN Sparse: Bridging Sparsity and Interpretability with Non-linear Insight [4.010646933005848]
IGANN Sparseは、一般化された加法モデルのファミリーから生まれた、新しい機械学習モデルである。
トレーニング中の非線形特徴選択プロセスを通じて、スパシティを促進する。
これにより、予測性能を犠牲にすることなく、モデル空間の改善による解釈可能性を保証する。
論文 参考訳(メタデータ) (2024-03-17T22:44:36Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Entity Aware Modelling: A Survey [22.32009539611539]
最近の機械学習の進歩により、新しい最先端の応答予測モデルが生まれている。
人口レベルで構築されたモデルは、多くのパーソナライズされた予測設定において、最適以下のパフォーマンスをもたらすことが多い。
パーソナライズされた予測では、予測性能を改善するために、異なるエンティティの固有の特性を取り入れることが目的である。
論文 参考訳(メタデータ) (2023-02-16T16:33:33Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - ALEX: Active Learning based Enhancement of a Model's Explainability [34.26945469627691]
アクティブラーニング(AL)アルゴリズムは、最小限のラベル付き例をブートストラップ方式で効率的な分類器を構築しようとする。
データ駆動学習の時代において、これは追求すべき重要な研究方向である。
本稿では,モデルの有効性に加えて,ブートストラップ段階におけるモデルの解釈可能性の向上も目指すAL選択関数の開発に向けた取り組みについて述べる。
論文 参考訳(メタデータ) (2020-09-02T07:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。