論文の概要: Enhanced Conditional Generation of Double Perovskite by Knowledge-Guided Language Model Feedback
- arxiv url: http://arxiv.org/abs/2511.22307v1
- Date: Thu, 27 Nov 2025 10:38:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.513067
- Title: Enhanced Conditional Generation of Double Perovskite by Knowledge-Guided Language Model Feedback
- Title(参考訳): 知識誘導型言語モデルフィードバックによる二重ペロブスカイトの条件付き生成
- Authors: Inhyo Lee, Junhyeong Lee, Jongwon Park, KyungTae Lim, Seunghwa Ryu,
- Abstract要約: 二重ペロブスカイト(DP)は持続可能なエネルギー技術の候補である。
本研究は,自然言語条件下でDP合成を生成するマルチエージェント・テキスト勾配駆動フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.369053195077008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Double perovskites (DPs) are promising candidates for sustainable energy technologies due to their compositional tunability and compatibility with low-energy fabrication, yet their vast design space poses a major challenge for conditional materials discovery. This work introduces a multi-agent, text gradient-driven framework that performs DP composition generation under natural-language conditions by integrating three complementary feedback sources: LLM-based self-evaluation, DP-specific domain knowledge-informed feedback, and ML surrogate-based feedback. Analogous to how knowledge-informed machine learning improves the reliability of conventional data-driven models, our framework incorporates domain-informed text gradients to guide the generative process toward physically meaningful regions of the DP composition space. Systematic comparison of three incremental configurations, (i) pure LLM generation, (ii) LLM generation with LLM reasoning-based feedback, and (iii) LLM generation with domain knowledge-guided feedback, shows that iterative guidance from knowledge-informed gradients improves stability-condition satisfaction without additional training data, achieving over 98% compositional validity and up to 54% stable or metastable candidates, surpassing both the LLM-only baseline (43%) and prior GAN-based results (27%). Analyses of ML-based gradients further reveal that they enhance performance in in-distribution (ID) regions but become unreliable in out-of-distribution (OOD) regimes. Overall, this work provides the first systematic analysis of multi-agent, knowledge-guided text gradients for DP discovery and establishes a generalizable blueprint for MAS-driven generative materials design aimed at advancing sustainable technologies.
- Abstract(参考訳): 二重ペロブスカイト(DP)は、構成的なチューニング性と低エネルギー製造との互換性のため、持続可能なエネルギー技術の候補として期待されているが、その広大な設計空間は条件付き材料発見の大きな課題となっている。
本研究は, LLMに基づく自己評価, DP固有のドメイン知識インフォームドフィードバック, MLサロゲートに基づくフィードバックという3つの補完的なフィードバックソースを統合することで, 自然言語条件下でDP合成を生成する多エージェント・テキスト勾配駆動フレームワークを提案する。
知識インフォームド・機械学習が従来のデータ駆動型モデルの信頼性を向上させる方法と類似して,本フレームワークでは,生成過程をDP合成空間の物理的意味のある領域へと導くために,ドメインインフォームド・テキスト・グラデーションを取り入れている。
3つのインクリメンタルな構成の体系的比較
(i)純粋なLLM生成
(二)LLM推論に基づくLLM生成、及び
三 知識誘導フィードバックによるLLM生成は、知識インフォームドグラデーションからの反復指導により、追加のトレーニングデータなしで安定条件満足度が向上し、構成妥当性が98%以上、安定もしくは準安定な候補が54%以上、LCMのみのベースライン(43%)とGANによる先行結果(27%)を上回り、安定条件満足度が向上することを示す。
MLに基づく勾配解析により, 分布内(ID)領域の性能は向上するが, 分布外(OOD)領域では信頼性が低下することが明らかとなった。
全体として、この研究はDP発見のための多エージェント・知識誘導型テキスト勾配の体系的解析を行い、持続可能な技術の進歩を目的としたMAS駆動型生成材料設計のための一般化可能な青写真を確立する。
関連論文リスト
- Harnessing Deep LLM Participation for Robust Entity Linking [14.079957943961276]
DeepELは大規模言語モデル(LLM)をエンティティリンクタスクのすべてのステージに組み込む包括的なフレームワークです。
この制限に対処するために,グローバルな文脈情報を利用する新しい自己検証機構を提案する。
10のベンチマークデータセットにわたる大規模な経験的評価は、DeepELが既存の最先端メソッドを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2025-11-18T06:35:26Z) - Evontree: Ontology Rule-Guided Self-Evolution of Large Language Models [12.36467850170776]
Evontreeは、大規模言語モデル(LLM)内のドメイン知識を抽出、検証、拡張するために、少数の高品質なルールを利用する新しいフレームワークである。
Llama3-8B-InstructとMed42-v2による医学QAベンチマークの実験は、修正されていないモデルと教師付きベースラインの両方に対して一貫した性能を示した。
論文 参考訳(メタデータ) (2025-10-30T16:53:45Z) - How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - Iterative Augmentation with Summarization Refinement (IASR) Evaluation for Unstructured Survey data Modeling and Analysis [0.43988112145759295]
本研究は,大規模言語モデル(LLM)に基づくテキスト拡張のための原則的評価フレームワークを導入する。
実証評価の結果, GPT-3.5 Turbo はセマンティック忠実度, 多様性, 生成効率の最良のバランスを達成できた。
論文 参考訳(メタデータ) (2025-07-16T10:49:30Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - AIRepr: An Analyst-Inspector Framework for Evaluating Reproducibility of LLMs in Data Science [8.281093505963158]
大規模言語モデル(LLM)は、実行可能なコード生成を通じてデータ分析を自動化するために、ますます使われるようになっている。
本稿では,LLM生成データ分析の自動評価と改善のための分析・検査フレームワークであるAIReprについて述べる。
論文 参考訳(メタデータ) (2025-02-23T01:15:50Z) - X2-DFD: A framework for eXplainable and eXtendable Deepfake Detection [55.77552681618732]
X2-DFDは、eXplainableおよびeXtendableフレームワークであり、ディープフェイク検出のためのマルチモーダルな多言語モデル(MLLM)に基づいている。
最初の段階であるモデル特徴評価は、MLLMの偽造関係の特徴の検出可能性を体系的に評価する。
2番目のステージであるExplainable dataset Constructionは、Strong Feature StrengtheningとWeak Feature Supplementingの2つの重要なモジュールで構成されている。
3番目のステージであるファインチューニングと推論では、構築されたデータセット上でMLLMを微調整し、最終的な検出と説明のためにデプロイする。
論文 参考訳(メタデータ) (2024-10-08T15:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。