論文の概要: Benchmarking Generative AI Against Bayesian Optimization for Constrained Multi-Objective Inverse Design
- arxiv url: http://arxiv.org/abs/2511.00070v1
- Date: Wed, 29 Oct 2025 10:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.558345
- Title: Benchmarking Generative AI Against Bayesian Optimization for Constrained Multi-Objective Inverse Design
- Title(参考訳): 制約付き多目的逆設計のためのベイズ最適化に対する生成AIのベンチマーク
- Authors: Muhammad Bilal Awan, Abdul Razzaq, Abdul Shahid,
- Abstract要約: 本稿では,制約付き多目的回帰タスクを解くための生成可能な言語モデル(LLM)の性能について検討する。
最高の性能のLDM(Math-7B)は1.21の世代距離(GD)を達成した。
この知見は, 樹脂, レオロジー, 化学特性の定式化設計の最適化に, 直接工業的応用が期待できる。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the performance of Large Language Models (LLMs) as generative optimizers for solving constrained multi-objective regression tasks, specifically within the challenging domain of inverse design (property-to-structure mapping). This problem, critical to materials informatics, demands finding complex, feasible input vectors that lie on the Pareto optimal front. While LLMs have demonstrated universal effectiveness across generative and reasoning tasks, their utility in constrained, continuous, high-dimensional numerical spaces tasks they weren't explicitly architected for remains an open research question. We conducted a rigorous comparative study between established Bayesian Optimization (BO) frameworks and a suite of fine-tuned LLMs and BERT models. For BO, we benchmarked the foundational BoTorch Ax implementation against the state-of-the-art q-Expected Hypervolume Improvement (qEHVI, BoTorchM). The generative approach involved fine-tuning models via Parameter-Efficient Fine-Tuning (PEFT), framing the challenge as a regression problem with a custom output head. Our results show that BoTorch qEHVI achieved perfect convergence (GD=0.0), setting the performance ceiling. Crucially, the best-performing LLM (WizardMath-7B) achieved a Generational Distance (GD) of 1.21, significantly outperforming the traditional BoTorch Ax baseline (GD=15.03). We conclude that specialized BO frameworks remain the performance leader for guaranteed convergence, but fine-tuned LLMs are validated as a promising, computationally fast alternative, contributing essential comparative metrics to the field of AI-driven optimization. The findings have direct industrial applications in optimizing formulation design for resins, polymers, and paints, where multi-objective trade-offs between mechanical, rheological, and chemical properties are critical to innovation and production efficiency.
- Abstract(参考訳): 本稿では,制約付き多目的回帰タスク,特に逆設計の難易度領域(プロパティ・ツー・ストラクチャマッピング)において,ジェネレーティブ・オプティマイザとしてのLarge Language Models (LLMs)の性能について検討する。
この問題は、材料情報学に批判的であり、パレート最適正面にある複雑で実現可能な入力ベクトルを見つけることを要求する。
LLMは、生成的および推論的タスクにまたがる普遍的な効果を示したが、制約のある、連続的で高次元の数値空間タスクにおけるそれらの実用性は、明らかに設計されていない。
確立したベイズ最適化(BO)フレームワークと微調整 LLM モデルとBERT モデルとの厳密な比較を行った。
BOについては,最先端のq-Expected Hypervolume Improvement (qEHVI, BoTorchM) に対して基礎的なBoTorch Ax実装をベンチマークした。
生成的アプローチは、パラメータ効率の良いファインチューニング(PEFT)によるファインチューニングモデルを含み、カスタム出力ヘッドによる回帰問題としてチャレンジをフレーミングした。
以上の結果から,BoTorch qEHVIは完全収束(GD=0.0)を達成し,性能天井を設定できた。
重要なことに、最高の性能を持つLDM(WizardMath-7B)は1.21の世代距離(GD)を達成し、従来のボトーチAxベースライン(GD=15.03)よりも大幅に上回った。
専門的なBOフレームワークは、コンバージェンスを保証するためのパフォーマンスリーダーのままだが、微調整のLLMは有望で高速な代替手段として検証され、AI駆動最適化の分野において重要な比較指標となっている。
この知見は, 機械的, レオロジー的, 化学的特性の多目的トレードオフがイノベーションや生産効率に不可欠である樹脂, ポリマー, 塗料の成形設計の最適化に, 直接的な産業的応用が期待できる。
関連論文リスト
- Relation-Aware Bayesian Optimization of DBMS Configurations Guided by Affinity Scores [2.474203056060563]
データベース管理システム(DBMS)は,大規模および異種データの管理に基本的であり,その性能は構成パラメータの影響を強く受けている。
近年の研究では、機械学習を用いた自動構成最適化に焦点が当てられているが、既存のアプローチにはいくつかの重要な制限がある。
パラメータ依存をグラフとして表現する新しいフレームワークであるRelTuneを提案し,パフォーマンス関連セマンティクスを符号化したGNNベースの潜伏埋め込みを学習する。
論文 参考訳(メタデータ) (2025-10-31T03:46:42Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - Fine-tuning LLMs with variational Bayesian last layer for high-dimensional Bayesian optimization [4.12346015436419]
高い評価コストを伴うブラックボックス最適化問題は、サンプル効率でブラックボックス最適化問題を解く必要がある。
本稿では,高次元の入力変数から目的関数へのマッピングをモデル化するニューラルネットワークに基づくサロゲートを提案する。
提案した(ENS-)LoRA-VBLL手法の様々な高次元ベンチマークおよび実世界の分子最適化タスクにおける性能を実証する。
論文 参考訳(メタデータ) (2025-10-01T21:28:50Z) - Multi-fidelity Bayesian Data-Driven Design of Energy Absorbing Spinodoid Cellular Structures [1.5187678526255866]
本稿では,ソボのサンプルに分散感性分析を適用し,問題点を解決することを目的とする。
この結果は、高価なデータ駆動設計問題にまたがるマルチファイダリティ技術の有用性をサポートするのに役立ちます。
論文 参考訳(メタデータ) (2025-07-25T15:55:59Z) - ROMO: Retrieval-enhanced Offline Model-based Optimization [14.277672372460785]
データ駆動型ブラックボックスモデルベース最適化(MBO)の問題は、多くの実用的なアプリケーションシナリオで発生します。
検索強化オフラインモデルベース最適化(ROMO)を提案する。
ROMOは実装が簡単で、CoMBO設定における最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2023-10-11T15:04:33Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。