論文の概要: Benchmarking Generative AI Against Bayesian Optimization for Constrained Multi-Objective Inverse Design
- arxiv url: http://arxiv.org/abs/2511.00070v1
- Date: Wed, 29 Oct 2025 10:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.558345
- Title: Benchmarking Generative AI Against Bayesian Optimization for Constrained Multi-Objective Inverse Design
- Title(参考訳): 制約付き多目的逆設計のためのベイズ最適化に対する生成AIのベンチマーク
- Authors: Muhammad Bilal Awan, Abdul Razzaq, Abdul Shahid,
- Abstract要約: 本稿では,制約付き多目的回帰タスクを解くための生成可能な言語モデル(LLM)の性能について検討する。
最高の性能のLDM(Math-7B)は1.21の世代距離(GD)を達成した。
この知見は, 樹脂, レオロジー, 化学特性の定式化設計の最適化に, 直接工業的応用が期待できる。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the performance of Large Language Models (LLMs) as generative optimizers for solving constrained multi-objective regression tasks, specifically within the challenging domain of inverse design (property-to-structure mapping). This problem, critical to materials informatics, demands finding complex, feasible input vectors that lie on the Pareto optimal front. While LLMs have demonstrated universal effectiveness across generative and reasoning tasks, their utility in constrained, continuous, high-dimensional numerical spaces tasks they weren't explicitly architected for remains an open research question. We conducted a rigorous comparative study between established Bayesian Optimization (BO) frameworks and a suite of fine-tuned LLMs and BERT models. For BO, we benchmarked the foundational BoTorch Ax implementation against the state-of-the-art q-Expected Hypervolume Improvement (qEHVI, BoTorchM). The generative approach involved fine-tuning models via Parameter-Efficient Fine-Tuning (PEFT), framing the challenge as a regression problem with a custom output head. Our results show that BoTorch qEHVI achieved perfect convergence (GD=0.0), setting the performance ceiling. Crucially, the best-performing LLM (WizardMath-7B) achieved a Generational Distance (GD) of 1.21, significantly outperforming the traditional BoTorch Ax baseline (GD=15.03). We conclude that specialized BO frameworks remain the performance leader for guaranteed convergence, but fine-tuned LLMs are validated as a promising, computationally fast alternative, contributing essential comparative metrics to the field of AI-driven optimization. The findings have direct industrial applications in optimizing formulation design for resins, polymers, and paints, where multi-objective trade-offs between mechanical, rheological, and chemical properties are critical to innovation and production efficiency.
- Abstract(参考訳): 本稿では,制約付き多目的回帰タスク,特に逆設計の難易度領域(プロパティ・ツー・ストラクチャマッピング)において,ジェネレーティブ・オプティマイザとしてのLarge Language Models (LLMs)の性能について検討する。
この問題は、材料情報学に批判的であり、パレート最適正面にある複雑で実現可能な入力ベクトルを見つけることを要求する。
LLMは、生成的および推論的タスクにまたがる普遍的な効果を示したが、制約のある、連続的で高次元の数値空間タスクにおけるそれらの実用性は、明らかに設計されていない。
確立したベイズ最適化(BO)フレームワークと微調整 LLM モデルとBERT モデルとの厳密な比較を行った。
BOについては,最先端のq-Expected Hypervolume Improvement (qEHVI, BoTorchM) に対して基礎的なBoTorch Ax実装をベンチマークした。
生成的アプローチは、パラメータ効率の良いファインチューニング(PEFT)によるファインチューニングモデルを含み、カスタム出力ヘッドによる回帰問題としてチャレンジをフレーミングした。
以上の結果から,BoTorch qEHVIは完全収束(GD=0.0)を達成し,性能天井を設定できた。
重要なことに、最高の性能を持つLDM(WizardMath-7B)は1.21の世代距離(GD)を達成し、従来のボトーチAxベースライン(GD=15.03)よりも大幅に上回った。
専門的なBOフレームワークは、コンバージェンスを保証するためのパフォーマンスリーダーのままだが、微調整のLLMは有望で高速な代替手段として検証され、AI駆動最適化の分野において重要な比較指標となっている。
この知見は, 機械的, レオロジー的, 化学的特性の多目的トレードオフがイノベーションや生産効率に不可欠である樹脂, ポリマー, 塗料の成形設計の最適化に, 直接的な産業的応用が期待できる。
関連論文リスト
- Surrogate Ensemble in Expensive Multi-Objective Optimization via Deep Q-Learning [17.84264663466905]
サロゲート支援進化アルゴリズム(SAEA)は、高価な最適化問題を解く上で有望な堅牢性を示している。
SAEAsの有効性に影響を与える重要な側面は、モデル選択の代理である。
一つの最適化プロセス内で異なる代理モデルをスケジューリングできるSEEMOOと呼ばれる強化学習支援アンサンブルフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-31T06:14:27Z) - MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - MARINE: Theoretical Optimization and Design for Multi-Agent Recursive IN-context Enhancement [5.852607388888843]
大きな言語モデル(LLM)ベースのエージェントは高度な推論能力を示すが、実用的な制約は出力を単一応答に制限することが多い。
本稿では,テスト時間推論を永続的参照軌道の反復的洗練として再認識するフレームワークであるMARINEを紹介する。
提案されたMARINEは、従来のサンプリング・アンド・グレード戦略よりも高品質なサンプルをアライメントと最適化プロセスに提供します。
論文 参考訳(メタデータ) (2025-12-05T11:19:18Z) - Relation-Aware Bayesian Optimization of DBMS Configurations Guided by Affinity Scores [2.474203056060563]
データベース管理システム(DBMS)は,大規模および異種データの管理に基本的であり,その性能は構成パラメータの影響を強く受けている。
近年の研究では、機械学習を用いた自動構成最適化に焦点が当てられているが、既存のアプローチにはいくつかの重要な制限がある。
パラメータ依存をグラフとして表現する新しいフレームワークであるRelTuneを提案し,パフォーマンス関連セマンティクスを符号化したGNNベースの潜伏埋め込みを学習する。
論文 参考訳(メタデータ) (2025-10-31T03:46:42Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - Fine-tuning LLMs with variational Bayesian last layer for high-dimensional Bayesian optimization [4.12346015436419]
高い評価コストを伴うブラックボックス最適化問題は、サンプル効率でブラックボックス最適化問題を解く必要がある。
本稿では,高次元の入力変数から目的関数へのマッピングをモデル化するニューラルネットワークに基づくサロゲートを提案する。
提案した(ENS-)LoRA-VBLL手法の様々な高次元ベンチマークおよび実世界の分子最適化タスクにおける性能を実証する。
論文 参考訳(メタデータ) (2025-10-01T21:28:50Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Multi-fidelity Bayesian Data-Driven Design of Energy Absorbing Spinodoid Cellular Structures [1.5187678526255866]
本稿では,ソボのサンプルに分散感性分析を適用し,問題点を解決することを目的とする。
この結果は、高価なデータ駆動設計問題にまたがるマルチファイダリティ技術の有用性をサポートするのに役立ちます。
論文 参考訳(メタデータ) (2025-07-25T15:55:59Z) - ROMO: Retrieval-enhanced Offline Model-based Optimization [14.277672372460785]
データ駆動型ブラックボックスモデルベース最適化(MBO)の問題は、多くの実用的なアプリケーションシナリオで発生します。
検索強化オフラインモデルベース最適化(ROMO)を提案する。
ROMOは実装が簡単で、CoMBO設定における最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2023-10-11T15:04:33Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Machine Learning Framework for Quantum Sampling of Highly-Constrained,
Continuous Optimization Problems [101.18253437732933]
本研究では,連続空間の逆設計問題を,制約のないバイナリ最適化問題にマッピングする,汎用的な機械学習ベースのフレームワークを開発する。
本研究では, 熱発光トポロジを熱光応用に最適化し, (ii) 高効率ビームステアリングのための拡散メタグレーティングを行うことにより, 2つの逆設計問題に対するフレームワークの性能を示す。
論文 参考訳(メタデータ) (2021-05-06T02:22:23Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。