論文の概要: The carbon cost of materials discovery: Can machine learning really accelerate the discovery of new photovoltaics?
- arxiv url: http://arxiv.org/abs/2507.13246v1
- Date: Thu, 17 Jul 2025 15:55:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.566005
- Title: The carbon cost of materials discovery: Can machine learning really accelerate the discovery of new photovoltaics?
- Title(参考訳): 物質発見の炭素コスト:機械学習は、新しい太陽光発電の発見を本当に加速できるのか?
- Authors: Matthew Walker, Keith T. Butler,
- Abstract要約: 高速太陽光発電 (PV) 材料の発見において, 計算スクリーニングは実験の強力な補完となる。
ほとんどの場合、太陽エネルギー変換に関連する電子的および光学的性質を推定するために密度汎関数理論(DFT)に依存する。
マシンラーニング(ML)モデルは先日,DFTのサロゲートとして注目され,リソース使用の大幅な削減と,競争力のある予測パフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 0.05524804393257919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational screening has become a powerful complement to experimental efforts in the discovery of high-performance photovoltaic (PV) materials. Most workflows rely on density functional theory (DFT) to estimate electronic and optical properties relevant to solar energy conversion. Although more efficient than laboratory-based methods, DFT calculations still entail substantial computational and environmental costs. Machine learning (ML) models have recently gained attention as surrogates for DFT, offering drastic reductions in resource use with competitive predictive performance. In this study, we reproduce a canonical DFT-based workflow to estimate the maximum efficiency limit and progressively replace its components with ML surrogates. By quantifying the CO$_2$ emissions associated with each computational strategy, we evaluate the trade-offs between predictive efficacy and environmental cost. Our results reveal multiple hybrid ML/DFT strategies that optimize different points along the accuracy--emissions front. We find that direct prediction of scalar quantities, such as maximum efficiency, is significantly more tractable than using predicted absorption spectra as an intermediate step. Interestingly, ML models trained on DFT data can outperform DFT workflows using alternative exchange--correlation functionals in screening applications, highlighting the consistency and utility of data-driven approaches. We also assess strategies to improve ML-driven screening through expanded datasets and improved model architectures tailored to PV-relevant features. This work provides a quantitative framework for building low-emission, high-throughput discovery pipelines.
- Abstract(参考訳): 高速太陽光発電 (PV) 材料の発見において, 計算スクリーニングは実験の強力な補完となる。
ほとんどのワークフローは、太陽エネルギー変換に関連する電子的および光学的性質を推定するために密度汎関数理論(DFT)に依存している。
実験室ベースの手法よりも効率的であるが、DFT計算は依然として相当な計算コストと環境コストを必要とする。
マシンラーニング(ML)モデルは先日,DFTのサロゲートとして注目され,リソース使用の大幅な削減と,競争力のある予測パフォーマンスを実現している。
本研究では、標準DFTベースのワークフローを再現し、最大効率限界を推定し、そのコンポーネントをMLサロゲートに徐々に置き換える。
各計算戦略に関連するCO$_2$排出量を定量化することにより,予測効率と環境コストのトレードオフを評価する。
本稿では,DFTデータに基づいてトレーニングされたMLモデルは,データ駆動手法の整合性や有用性を強調し,データ駆動方式の整合性に着目して,代替の交換相関関数を用いてDFTワークフローより優れていることを示す。
また、拡張データセットによるML駆動スクリーニングの改善戦略や、PV関連機能に合わせたモデルアーキテクチャの改善も検討した。
この作業は、低エミッションで高スループットの発見パイプラインを構築するための定量的フレームワークを提供する。
関連論文リスト
- Pruning-Based TinyML Optimization of Machine Learning Models for Anomaly Detection in Electric Vehicle Charging Infrastructure [8.29566258132752]
本稿では,EVCIを対象とする資源制約環境における異常検出のためのプルーニング手法について検討する。
最適化されたモデルは、モデルのサイズと推論時間の大幅な削減を実現しました。
特に,EVCIでは,プルーニングとFSが重要な異常検出能力を保ちながら,計算効率を向上させることが示唆された。
論文 参考訳(メタデータ) (2025-03-19T00:18:37Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Refining Salience-Aware Sparse Fine-Tuning Strategies for Language Models [14.68920095399595]
SPEFT(Sparsity-based PEFT)は、モデルの重み行列にトレーニング可能なスパース適応を導入する。
我々は、ゼロコストNASプロキシにインスパイアされたSPEFTのサリエンス指標を初めて体系的に評価した。
静的マスキング戦略と動的マスキング戦略を比較し、トレーニング前にゼロでないエントリを事前に決定する静的マスキングが、パフォーマンスを犠牲にすることなく効率を向上することを示した。
論文 参考訳(メタデータ) (2024-12-18T04:14:35Z) - Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能推定のためのより計算効率のよい指標として、事前学習損失に焦点を当てている。
FLP-Mは、事前トレーニング中に複数のソースからのデータセットを統合する実践的なニーズに対処する、パフォーマンス予測の基本的なアプローチである。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Putting Density Functional Theory to the Test in
Machine-Learning-Accelerated Materials Discovery [2.7810723668216575]
従来のDFTベース機械学習(ML)で典型的なものを超える精度、効率、アプローチに必要な進歩について述べる。
DFTが高スループットのスクリーンで所定のデータポイントを信頼するには、一連のテストに合格しなければならない。
DFTが高スループットのスクリーンで所定のデータポイントを信頼するには、一連のテストに合格しなければならない。
論文 参考訳(メタデータ) (2022-05-06T00:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。