論文の概要: Simultaneous Optimization of Efficiency and Degradation in Tunable HTL-Free Perovskite Solar Cells with MWCNT-Integrated Back Contact Using a Machine Learning-Derived Polynomial Regressor
- arxiv url: http://arxiv.org/abs/2505.18693v1
- Date: Sat, 24 May 2025 13:37:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.595827
- Title: Simultaneous Optimization of Efficiency and Degradation in Tunable HTL-Free Perovskite Solar Cells with MWCNT-Integrated Back Contact Using a Machine Learning-Derived Polynomial Regressor
- Title(参考訳): MWCNT付バックコンタクト付き可変HTLフリーペロブスカイト太陽電池における機械学習による効率と劣化の同時最適化
- Authors: Ihtesham Ibn Malek, Hafiz Imtiaz, Samia Subrina,
- Abstract要約: 孔輸送層(HTL)を持たないペロブスカイト太陽電池(PSC)は、従来のアーキテクチャに代わるコスト効率が高く安定した代替手段を提供する。
本研究では,HTLフリーPSCの効率性と安定性を最適化する機械学習(ML)駆動のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.8739101659113155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perovskite solar cells (PSCs) without a hole transport layer (HTL) offer a cost-effective and stable alternative to conventional architectures, utilizing only an absorber layer and an electron transport layer (ETL). This study presents a machine learning (ML)-driven framework to optimize the efficiency and stability of HTL-free PSCs by integrating experimental validation with numerical simulations. Excellent agreement is achieved between a fabricated device and its simulated counterpart at a molar fraction \( x = 68.7\% \) in \(\mathrm{MAPb}_{1-x}\mathrm{Sb}_{2x/3}\mathrm{I}_3\), where MA is methylammonium. A dataset of 1650 samples is generated by varying molar fraction, absorber defect density, thickness, and ETL doping, with corresponding efficiency and 50-hour degradation as targets. A fourth-degree polynomial regressor (PR-4) shows the best performance, achieving RMSEs of 0.0179 and 0.0117, and \( R^2 \) scores of 1 and 0.999 for efficiency and degradation, respectively. The derived model generalizes beyond the training range and is used in an L-BFGS-B optimization algorithm with a weighted objective function to maximize efficiency and minimize degradation. This improves device efficiency from 13.7\% to 16.84\% and reduces degradation from 6.61\% to 2.39\% over 1000 hours. Finally, the dataset is labeled into superior and inferior classes, and a multilayer perceptron (MLP) classifier achieves 100\% accuracy, successfully identifying optimal configurations.
- Abstract(参考訳): ホールトランスポート層(HTL)を持たないペロブスカイト太陽電池(PSC)は、吸収層と電子トランスポート層(ETL)のみを利用して、従来のアーキテクチャに代わるコスト効率が高く安定した代替手段を提供する。
本研究では,HTLフリーPSCの効率性と安定性を最適化するための機械学習(ML)駆動のフレームワークを提案する。
MAはメチルアンモニウムである(\mathrm{MAPb}_{1-x}\mathrm{Sb}_{2x/3}\mathrm{I}_3\)。
1650サンプルのデータセットは、様々なモル分率、吸収体欠陥密度、厚さ、ETLドーピングによって生成される。
4次多項式回帰器(PR-4)は、効率と劣化のためにそれぞれ0.0179と0.0117のRMSEと1の(R^2 \)スコアと0.999の(R^2 \)スコアを達成し、最高の性能を示す。
導出モデルはトレーニング範囲を超えて一般化し、L-BFGS-B最適化アルゴリズムで目的関数を重み付けすることで効率を最大化し、劣化を最小限にする。
これにより、装置効率は13.7\%から16.84\%に向上し、分解率は6.61\%から1000時間で2.39\%に低下する。
最後に、データセットは上位クラスと下位クラスにラベル付けされ、多層パーセプトロン(MLP)分類器は100\%の精度で最適構成を識別する。
関連論文リスト
- COSMOS: A Hybrid Adaptive Optimizer for Memory-Efficient Training of LLMs [81.01082659623552]
大規模言語モデル(LLM)は、様々な領域で顕著な成功を収めている。
それらの最適化は、彼らが居住している複雑で高次元のロスランドスケープのために重要な課題である。
論文 参考訳(メタデータ) (2025-02-24T18:42:19Z) - Determining Layer-wise Sparsity for Large Language Models Through a Theoretical Perspective [55.90119819642064]
本稿では,大規模言語モデル (LLM) の階層的疎度率を理論的観点から決定する上での課題に対処する。
これは、スペーサー化プロセス全体での再構成エラーの累積効果を指す。
この問題を緩和するレイヤワイド・スパシティ・アロケーションに対する、シンプルで効果的なアプローチを導出します。
論文 参考訳(メタデータ) (2025-02-20T17:51:10Z) - Neural Network Surrogate and Projected Gradient Descent for Fast and Reliable Finite Element Model Calibration: a Case Study on an Intervertebral Disc [9.456474817418703]
そこで本研究では,L4-L5 IVD FEモデルを用いた新しい,効率的かつ効果的なキャリブレーション手法を提案する。
NNサロゲートは、シミュレーション結果を高精度に予測し、他の機械学習モデルより優れ、計算コストを大幅に削減する。
このような効率性は、より複雑なFEモデルを適用する方法となり、IVDを超えて拡張される可能性がある。
論文 参考訳(メタデータ) (2024-08-12T11:39:21Z) - Bypass Back-propagation: Optimization-based Structural Pruning for Large Language Models via Policy Gradient [57.9629676017527]
大規模言語モデルを用いた最適化に基づく構造解析手法を提案する。
我々は,プルーニングモデルの損失を最適化することにより,確率空間におけるプルーニングマスクを直接学習する。
A100 GPUで13Bモデルに対して約35GBのメモリで2.7時間動作させる。
論文 参考訳(メタデータ) (2024-06-15T09:31:03Z) - Parameter Identification for Electrochemical Models of Lithium-Ion Batteries Using Bayesian Optimization [5.637250168164636]
グラディエントベースおよびメタヒューリスティック最適化手法は、ロバスト性、高い計算コスト、および局所ミニマへの感受性の欠如によって制限されている。
本研究では,ニッケル-マンガン-コバルト (NMC)-グラファイトセルの電気化学等価回路電池モデル (E-ECM) の動的パラメータの調整にベイズ最適化を用いる。
論文 参考訳(メタデータ) (2024-05-17T12:59:15Z) - Gaussian process regression and conditional Karhunen-Lo\'{e}ve models
for data assimilation in inverse problems [68.8204255655161]
偏微分方程式モデルにおけるデータ同化とパラメータ推定のためのモデル逆アルゴリズムCKLEMAPを提案する。
CKLEMAP法は標準的なMAP法に比べてスケーラビリティがよい。
論文 参考訳(メタデータ) (2023-01-26T18:14:12Z) - Highly efficient reliability analysis of anisotropic heterogeneous
slopes: Machine Learning aided Monte Carlo method [0.0]
本稿では,高効率な機械学習支援信頼性手法を提案する。
モンテカルロ(MC)の信頼性調査の結果を正確に予測できるが、500倍高速である。
提案手法は,研究に必要な計算時間を306日から14時間に短縮し,効率を500倍に向上させる。
論文 参考訳(メタデータ) (2022-04-04T16:28:53Z) - A deep learning-based model reduction (DeePMR) method for simplifying
chemical kinetics [10.438320849775224]
The DeePMR is proposed and validationed using high-teature auto-ignitions, perfect stired reactors (PSR), and one-dimensional free propagating flames of n-heptane/air mixtures。
DeePMRの鍵となる考え方は、最適化問題における目的関数を定式化するためにディープニューラルネットワーク(DNN)を使用することである。
論文 参考訳(メタデータ) (2022-01-06T12:31:32Z) - Pruning Redundant Mappings in Transformer Models via Spectral-Normalized
Identity Prior [54.629850694790036]
スペクトル正規化アイデンティティ事前 (SNIP) は、トランスフォーマーモデルにおける残余モジュール全体をアイデンティティマッピングに向けてペナライズする構造化プルーニング手法である。
5つのGLUEベンチマークタスクでBERTを用いて実験を行い、SNIPが同等の性能を維持しながら効率的な刈り取り結果が得られることを示した。
論文 参考訳(メタデータ) (2020-10-05T05:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。