論文の概要: Comparison of derivative-free and gradient-based minimization for multi-objective compositional design of shape memory alloys
- arxiv url: http://arxiv.org/abs/2508.14127v1
- Date: Tue, 19 Aug 2025 03:43:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.210116
- Title: Comparison of derivative-free and gradient-based minimization for multi-objective compositional design of shape memory alloys
- Title(参考訳): 形状記憶合金の多目的組成設計のための誘導体フリーおよび勾配ベース最小化法の比較
- Authors: S. Josyula, Y. Noiman, E. J. Payton, T. Giovannelli,
- Abstract要約: 我々は, 機械モデルを代理材として使用し, 合金組成の探索に数値的手法を適用した。
本研究では、物理インフォームドデータ、機械学習モデル、最適化アルゴリズムを組み合わせることで、新しいSMAを探索する実践的なアプローチを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing shape memory alloys (SMAs) that meet performance targets while remaining affordable and sustainable is a complex challenge. In this work, we focus on optimizing SMA compositions to achieve a desired martensitic start temperature (Ms) while minimizing cost. To do this, we use machine learning models as surrogate predictors and apply numerical optimization methods to search for suitable alloy combinations. We trained two types of machine learning models, a tree-based ensemble and a neural network, using a dataset of experimentally characterized alloys and physics-informed features. The tree-based model was used with a derivative-free optimizer (COBYLA), while the neural network, which provides gradient information, was paired with a gradient-based optimizer (TRUST-CONSTR). Our results show that while both models predict Ms with similar accuracy, the optimizer paired with the neural network finds better solutions more consistently. COBYLA often converged to suboptimal results, especially when the starting guess was far from the target. The TRUST-CONSTR method showed more stable behavior and was better at reaching alloy compositions that met both objectives. This study demonstrates a practical approach to exploring new SMA compositions by combining physics-informed data, machine learning models, and optimization algorithms. Although the scale of our dataset is smaller than simulation-based efforts, the use of experimental data improves the reliability of the predictions. The approach can be extended to other materials where design trade-offs must be made with limited data.
- Abstract(参考訳): 安価で持続可能な形状記憶合金(SMA)の設計は複雑な課題である。
本研究では,コストを最小化しつつ,所望のマルテンサイト開始温度(Ms)を達成するため,SMA組成の最適化に焦点をあてる。
そこで我々は,機械学習モデルを代用予測器として使用し,適切な合金の組み合わせを探索するための数値最適化手法を適用した。
我々は実験的に特徴付けられた合金と物理インフォームド特徴のデータセットを用いて、木に基づくアンサンブルとニューラルネットワークの2種類の機械学習モデルを訓練した。
ツリーベースモデルはデリバティブフリーオプティマイザ(COBYLA)で使用され、勾配情報を提供するニューラルネットワークは勾配ベースオプティマイザ(TRUST-CONSTR)とペアリングされた。
以上の結果から、どちらのモデルも類似した精度でMsを予測する一方で、ニューラルネットワークと組み合わせたオプティマイザにより、より良い解がより一貫して見つかることがわかった。
COBYLAは、特に開始推定が目標から遠く離れている場合、しばしば準最適結果に収束した。
TRUST-CONSTR法は, より安定な挙動を示し, 両目的に適合する合金組成に到達した。
本研究では、物理インフォームドデータ、機械学習モデル、最適化アルゴリズムを組み合わせることで、新しいSMA構成を探索する実践的なアプローチを示す。
データセットのスケールはシミュレーションに基づく作業よりも小さいが、実験データを使用することで予測の信頼性が向上する。
アプローチは、限られたデータで設計トレードオフを行う必要がある他の材料にも拡張できる。
関連論文リスト
- Optimizing ML Training with Metagradient Descent [69.89631748402377]
モデルトレーニングによる勾配というメタグラディエントを,大規模に効率的に計算するアルゴリズムを導入する。
次に、メタグラディエントを用いた効果的な最適化を可能にする「滑らかなモデルトレーニング」フレームワークを導入する。
論文 参考訳(メタデータ) (2025-03-17T22:18:24Z) - Leveraging Large Language Models to Address Data Scarcity in Machine Learning: Applications in Graphene Synthesis [0.0]
材料科学における機械学習は、限られた実験データのために困難に直面している。
大規模言語モデル(LLM)を用いて機械学習の性能を向上させる戦略を提案する。
論文 参考訳(メタデータ) (2025-03-06T16:04:01Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Autoselection of the Ensemble of Convolutional Neural Networks with
Second-Order Cone Programming [0.8029049649310213]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを推定する数学的モデルを提案する。
提案手法は, CIFAR-10, CIFAR-100 および MNIST データセットで検証される。
論文 参考訳(メタデータ) (2023-02-12T16:18:06Z) - Context-Aware Ensemble Learning for Time Series [11.716677452529114]
本稿では,ベースモデルの特徴ベクトルの結合である特徴のスーパーセットを用いて,ベースモデル予測を効果的に組み合わせたメタ学習手法を提案する。
我々のモデルは、ベースモデルの予測を機械学習アルゴリズムの入力として使用するのではなく、問題の状態に基づいて各時点における最良の組み合わせを選択する。
論文 参考訳(メタデータ) (2022-11-30T10:36:13Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。